CIENCIA

Cómo los deepfakes y otras IA que distorsionan la realidad pueden realmente ayudarnos

No estamos lejos del día en que la inteligencia artificial nos proporcione un pincel para la realidad. A medida que las bases en las que hemos confiado pierden su integridad, muchas personas sienten miedo de lo que está por venir. Pero siempre hemos vivido en un mundo donde nuestros sentidos tergiversan la realidad. Las nuevas tecnologías nos ayudarán a acercarnos a la verdad al mostrarnos dónde no podemos encontrarla.

A partir de una mirador histórico, nunca hemos detenido con éxito el progreso de ninguna tecnología y debemos el nivel de seguridad y protección que disfrutamos a ese progreso continuo. Si bien ocurren accidentes normales y las desventajas del progreso probablemente nunca dejarán de existir, empeoramos el problema cuando intentamos luchar contra lo inevitable. Además, la realidad nunca ha sido tan clara y precisa como queremos creer. Luchamos contra la nueva tecnología porque creemos que crea incertidumbre cuando, más exactamente, solo arroja luz sobre la incertidumbre que siempre ha existido y que hemos preferido ignorar.

Ya aceptamos realidades falsas todos los días

La disolución de nuestra realidad, un miedo provocado por la inteligencia artificial, es un espejismo. Durante un buen tiempo, hemos depositado nuestra confianza en lo que vemos y escuchamos a lo largo de nuestra vida, ya sea en los medios de comunicación o de personas que conocemos. Pero tampoco constituye la realidad porque la realidad nunca ha sido absoluta. Nuestra realidad es una construcción relativa. Es lo que acordamos juntos en función de la información que obtenemos de nuestra experiencia. Al observar y compartir nuestras observaciones, podemos intentar construir una imagen de una realidad objetiva. Naturalmente, ese objetivo se vuelve mucho más difícil de lograr cuando las personas mienten o utilizan tecnología que hace que las mentiras convincentes sean más posibles. Parece amenazar la estabilidad misma de la realidad tal como la conocemos.

Pero nuestra idea de la realidad es errónea. Se compone de observaciones y conjeturas humanas. Está limitado por cómo nuestros cuerpos perciben el mundo que nos rodea y cómo nuestros cerebros procesan esa información adquirida. Aunque podemos capturar mucho, solo podemos sentir una astilla del espectro electromagnético e incluso eso constituye demasiado para que nuestro cerebro lo procese a la vez. Como el pincel curativo en Photoshop, Nuestros cerebros llenar los vacíos en nuestra visión con su mejor conjetura sobre lo que pertenece. Usted puede prueba tus puntos ciegos para tener una mejor idea de cómo funciona esto o simplemente verlo en acción mirando una ilusión óptica como esta:

Ondas en movimiento

Credito de imagen: BrainDen | Desplácese o gire la cabeza si no ve movimiento

Esto, entre otros procesos cognitivos, produce versiones subjetivas de la realidad. Ya no puedes experimentar todos los aspectos de un momento, y ciertamente no recordarás cada detalle. Pero además de eso, ni siquiera ves todo lo que ves. Tu cerebro construye las partes faltantes oculta información visual (especialmente cuando nos estamos moviendo), te hace escuchar los sonidos incorrectosy puede confundir las extremidades de goma con las suyas. Cuando tienes una visión limitada de un momento dado y la información que obtienes no es completamente precisa, para empezar, te quedas con una versión subjetiva de la realidad de la que puedes medir. Confiar en las observaciones humanas colectivas nos llevó a creer Los gansos crecieron en los árboles durante unos 700 años.. Las observaciones, conclusiones y creencias humanas no son una realidad objetiva. Incluso en las mejores circunstancias, a veces, nos equivocaremos extraordinariamente.

Todo lo que sabe y comprende pasa por su cerebro y su cerebro no ofrece una imagen precisa de la realidad. Para empeorar las cosas, nuestros recuerdos a menudo nos fallan de muchas maneras. La forma en que vemos el mundo no es verdadera ni remotamente completa. Por eso, durante mucho tiempo, hemos confiado en otras personas para que nos ayuden a comprender la verdad. Eso puede funcionar bien en muchas situaciones, pero a veces las personas mienten o tienen versiones muy diferentes de la misma situación debido a experiencias pasadas. De cualquier manera, los problemas ocurren cuando las observaciones subjetivas chocan y la gente no puede ponerse de acuerdo sobre lo que realmente sucedió. La tecnología nos ha ayudado a mejorar ese problema, tecnología que temíamos mucho durante su introducción inicial.

O confiamos o desconfiamos demasiado de la tecnología

A lo largo del tiempo, hemos creado herramientas para ayudarnos a sobrevivir como especie. Al desarrollar nuevas herramientas, hemos podido difundir información con mayor facilidad y crear un sentido de confianza. Las grabaciones de video y audio nos permitieron eludir los procesos del cerebro y grabar un registro no aumentado de un evento, al menos, desde un punto de vista singular. Una cámara de video aún no logra capturar la realidad completa de un momento dado.

Payaso en video de vigilancia

Las imágenes de seguridad pueden verse mal o incluso escalofriantes, pero eso no siempre indica un problema real. | Credito de imagen: Noticias de Horror Freak

Por ejemplo, imagina que alguien saca un cuchillo en una pelea y finge un golpe para tratar de asustar a su atacante sin ninguna intención de hacer daño real. La videovigilancia pinta una imagen diferente sin este contexto. Para un oficial de la ley, las imágenes de seguridad mostrarán un asalto con un arma mortal. Sin otra evidencia que proporcione contexto, el oficial tiene que pecar de precavido y hacer un arresto.

Si tales suposiciones conducen o no a menos delitos o arrestos más cuestionables no cambia el hecho de que un registro objetivo de la realidad pierde información. Confiamos en las grabaciones como verdad cuando solo ofrecen una parte de la verdad. Cuando confiamos en el video, el audio o cualquier cosa que no pueda contar la historia completa, ponemos nuestra fe en un medio que miente por omisión por diseño, como cualquier observador de la realidad.

Existen fallas en la tecnología pero eso no ofrece motivo para descartarla. En general, nos hemos beneficiado de los avances que permitieron realizar grabaciones objetivas del mundo que nos rodea. No todas las grabaciones requieren contexto adicional. Un video de un lindo cachorro puede no ser lindo para todos, pero, en general, la gente estará de acuerdo en que está viendo un cachorro. Mientras tanto, nosotros solía llamar al cielo verde y no puedo ponerme de acuerdo sobre el color de un vestido en una mala fotografía. A medida que la tecnología avanza y se vuelve accesible para más y más personas, todos comenzamos a aprender cuándo y cómo puede pintar la realidad con un pincel menos preciso de lo que nos gustaba creer.

Esta comprensión causa miedo porque nuestro sistema de comprensión del mundo comienza a fallar. No podemos confiar en las herramientas que alguna vez pudimos para comprender nuestro mundo. Tenemos que cuestionar la confiabilidad de las cosas que vimos grabadas y eso va en contra de gran parte de lo que hemos aprendido, experimentado e integrado en nuestras identidades. Cuando surgen nuevas tecnologías que erosionan aún más nuestra capacidad de confiar en lo que es familiar, incitan a este miedo que tendemos a atribuir a la tecnología en lugar de a nosotros mismos. Las llamadas telefónicas son una parte normal de la vida pero, al principio, visto como un instrumento del diablo.

Hoy, la IA disfruta de problemas similares. Deepfakes desató el pánico cuando la gente comenzó a ver con qué facilidad una máquina podía intercambiar caras en videos con una precisión asombrosa, con numerosos videos y fotos de calidad que cumplían requisitos específicos. Si bien estos deepfakes rara vez engañan a nadie, todos pudimos vislumbrar un futuro cercano en el que la inteligencia artificial progresaría hasta un punto en el que no notaríamos la diferencia. Ese día llegó el mes pasado la Universidad de Stanford, la Universidad de Princeton, el Instituto Max Planck de Informática y Adobe lanzó un papel que demostró un método increíblemente simple de editar videos grabados para cambiar el diálogo hablado tanto visual como auditivo que engañó a la mayoría de las personas que vieron los resultados. Echar un vistazo:

Visita el resumen del papel y encontrará la mayor parte del texto dedicado a consideraciones éticas, una práctica común en la actualidad. Los investigadores de IA no pueden hacer bien su trabajo sin considerar las posibles aplicaciones de su trabajo. Eso incluye discutir casos de uso malicioso para que las personas puedan entender cómo usarlo para buenos propósitos y permitirles también prepararse para los problemas que se espera que surjan.

Las declaraciones éticas pueden alimentar el pánico público porque actúan indirectamente como una especie de ciencia ficción vaga en la que nuestras imaginaciones aterradoras deben llenar los espacios en blanco. Cuando los expertos presentan el problema, es fácil pensar solo en los peores escenarios. Incluso cuando considera los beneficios, la edición de video más rápida y la corrección de errores parecen una pequeña ventaja cuando los negativos incluyen noticias falsas que la gente tendrá dificultades para identificar.

Solo perdemos cuando nos resistimos al progreso

Sin embargo, esta tecnología surgirá independientemente de cualquier esfuerzo para detenerla. Nuestra propia historia demuestra repetidamente que Cualquier esfuerzo para detener el progreso de la ciencia resultará, como mucho, en un breve retraso.. No deberíamos querer detener a las personas que entienden y se preocupan por la ética de lo que crean porque eso deja a otros para crear la misma tecnología en las sombras. Lo que no podemos ver puede parecer menos aterrador por un tiempo, pero no tenemos forma de preparar, comprender o guiar estos esfuerzos cuando son invisibles.

Si bien tecnologías como el editor de video basado en texto antes mencionado conducirán inevitablemente tanto a usos maliciosos como a una inteligencia artificial más capaz en el futuro, ya somos víctimas de manipulaciones similares a diario. Las fotos manipuladas no son nada nuevo y la edición manipuladora muestra cómo el contexto puede determinar el significado.una técnica enseñada en la escuela de cine. La IA agrega otra herramienta a la caja y aumenta la desconfianza en un medio que siempre ha sido fácilmente manipulado. Es desagradable experimentar esto, pero en última instancia es algo bueno.

Confiamos demasiado en nuestros sentidos y en las grabaciones que vemos. Los recordatorios de esto ayudan a evitar que lo hagamos. Cuando Apple agrega corrección de atención a los chats de video y Google fabrica un asistente de voz que puede realizar llamadas telefónicas por usted. Debemos recordar que lo que vemos y oímos puede que no represente con precisión la realidad. La vida no requiere precisión para progresar y prosperar. Pretender que podemos observar la realidad objetiva hace más daño que aceptar que no podemos. No lo sabemos todo, nuestro propósito sigue siendo un misterio para la ciencia y siempre cometeremos errores. Nuestro problema no es la inteligencia artificial, sino que creemos que conocemos la historia completa cuando solo conocemos algunos detalles.

Al entrar en esta nueva era, no debemos luchar contra la tecnología inevitable que sigue destacando nuestra confianza fuera de lugar. La IA sigue demostrando la fragilidad de las formas en que concebimos la realidad como especie a un ritmo muy rápido. Ese tipo de cambio duele. Perdemos el equilibrio al darnos cuenta de que solo habíamos imaginado el terreno estable por el que caminamos durante toda nuestra vida. Buscamos un nuevo lugar de estabilidad mientras atravesamos la incertidumbre porque vemos la solución como el problema. Puede que no estemos preparados para este cambio, pero si luchamos contra lo inevitable nunca lo estaremos.

La inteligencia artificial seguirá erosionando las falsas comodidades que disfrutamos, y eso puede ser aterrador, pero ese miedo también es una oportunidad. Nos brinda una opción: oponernos a algo que nos asusta o intentar comprenderlo y usarlo en beneficio de la humanidad.

Crédito de la imagen superior: Getty Images

Publicaciones relacionadas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba
Cerrar
Cerrar