LaMDA, la máquina que ‘parecía un niño de siete años’: ¿Puede una computadora ser consciente?

Si le dejáramos un smartphone a Isaac Newton, estaría totalmente embelesado. No tendría la menor idea de cómo funciona, y probablemente tendríamos una de las mentes más brillantes de la historia hablando de brujería. Incluso podría pensar que estaba frente a un ser consciente si probara los asistentes de voz. El mismo paralelo se puede trazar hoy con algunos de los logros de la inteligencia artificial (IA). Esta tecnología ha alcanzado tal nivel de sofisticación que en ocasiones sus resultados pueden destrozar por completo nuestros planes.

Blake Lemoine, ingeniero de Google integrado en el equipo de IA de la empresa parece haber caído en esta trampa. “Si no supiera que este es un programa de computadora que desarrollamos recientemente, hubiera pensado que estaba hablando con un niño de siete u ocho años que sabe física”, dijo en un informe publicado hace unos días. por El Correo de Washington. Lemonine en estos términos se refiere a LaMDA, el generador de bots (Programa de computadora que ejecuta tareas automatizadas a través de internet como si fuera un humano) Google conversacional. Empezó a dialogar con la máquina en primavera. Comprobar si esta inteligencia artificial usó lenguaje discriminatorio u odioso. Y su conclusión es demoledora: cree que lograron desarrollar un programa consciente por voluntad propia.

¿Esto tiene sentido? “Quien hace una afirmación así demuestra que no ha escrito una sola línea de código en su vida”, afirma Ramón López de Mántaras, director del Instituto de Investigaciones en Inteligencia Artificial (IIIA) del CSIC. “Con el nivel actual de tecnología, es completamente imposible desarrollar una inteligencia artificial autoconsciente”, dice.

Eso no significa que el generador de chatbots de LaMDA sea muy maduro. Esta herramienta utiliza redes neuronales, una técnica de inteligencia artificial que intenta hacer esto imitar el funcionamiento del cerebro humanopara autocompletar conversaciones escritas. LaMDA ha sido entrenada en miles de millones de textos. Como se explicó recientemente en El economista Blaise Agüera y Arcas, responsable de Google Research (y jefe directo de Lemoine), generador de chatbot respecto 137.000 millones de parámetros para decidir cuál es la respuesta coincida más con la pregunta formulada. eso te permite Formular oraciones que puedan ser tomadas como escritas por una persona..

Pero incluso si se las arregla para escribir como un ser humano, no sabe lo que está diciendo. “Ninguno de estos sistemas tiene comprensión semántica. No entiendes la conversación. Eres como loros digitales. Nosotros somos quienes le damos sentido al texto”, dice López de Mántaras.

See also  Por qué Bill Gates no es fanático de las criptomonedas

El artículo de Agüera, publicado unos días antes del reportaje correoTambién destaca la increíble precisión con la que responde LaMDA, a pesar de ofrecer una explicación diferente a la de Lemoine. “La IA está entrando en una nueva era. Cuando comencé a hablar con LaMDA, sentí que estaba hablando con alguien inteligente. Pero estos modelos están lejos de ser los robots hiperracionales de la ciencia ficción”, escribe el ejecutivo de Google. El sistema está mostrando un progreso impresionante, dice el experto, pero hasta que se alcance la conciencia, es un mundo. “Los cerebros reales son mucho más complejos que estos modelos simplificados de neuronas artificiales, pero quizás de la misma manera que el ala de un pájaro es mucho más complejo que el ala del primer avión de los hermanos Wright”, argumenta Agüera en el artículo.

Blake Lemoine afirma que LaMDA tiene personalidad, derechos y deseos
Blake Lemoine afirma que LaMDA tiene personalidad, derechos y deseosEL POSTE DE WASHINGTON

Los investigadores Timnit Gebru y Margaret Mitchell, entonces codirectores del equipo de ética de IA de Google, advirtieron en 2020 que algo similar al caso de Lemoine estaba a punto de suceder. Ambos firmaron un informe interno que consiguió que los despidieran, recordaron el viernes en una galería El Correo de Washingtony en el que lo señalaron Peligro de que “las personas atribuyan intención comunicativa a las máquinas”. que generan un texto aparentemente coherente o “que pueden discernir una mente donde solo hay combinaciones de patrones y conjuntos de predicciones”. Para Gebru y Mitchell, el problema de fondo es que, como estas herramientas se alimentan de millones de textos extraídos de Internet sin ningún tipo de filtro, en su funcionamiento reproducen lenguaje sexista, racista o discriminatorio hacia una minoría.

¿Qué hizo que Lemoine se dejara seducir por LaMDA? ¿Cómo podría concluir que el chatbot ¿Con quién estabas hablando era una entidad consciente? Tres capas convergen en la historia de Blake: una de ellas es sus observaciones, otro sus creencias religiosas, y el tercero su estado de ánimoexplica EL PAÍS, un ingeniero de Google que trabajó codo con codo con Lemoine pero que prefiere permanecer en el anonimato. “Creo que Blake es un tipo inteligente, pero es cierto que no está capacitado en aprendizaje automático [o aprendizaje automático, la estrategia de inteligencia artificial que domina hoy la disciplina]. No entiendes cómo funciona LaMDA. Creo que se dejó llevar por sus ideas”, dice esta fuente.

See also  OVNIs, ¿un portal a otra dimensión? Verificamos el origen de la espiral de luz vista en Nueva Zelanda

Lemoine, quien fue suspendido temporalmente por violar la política de confidencialidad de la empresa, se ha descrito a sí mismo como un “cristiano agnóstico” o miembro de la Iglesia del SubGenio, una parodia posmoderna de la religión. “Se podría decir que Blake es todo un personaje. No es la primera vez que llama la atención sobre sí mismo en la empresa. De hecho, diría que en otra empresa lo habrían despedido hace mucho tiempo”, añade su colega, que deplora la forma en que los medios pintan la sangre de Lemoine. “Más allá de lo grotesco, me alegra que esté surgiendo este debate. Por supuesto, LaMDA no tiene conciencia, pero también está claro que la IA siempre puede ir más allá y hay que revisar nuestra relación con ella”, apunta este destacado ingeniero de Google.

Parte de la controversia en torno a este debate tiene que ver con la ambigüedad de los términos utilizados. “Estamos hablando de algo en lo que aún no nos hemos puesto de acuerdo. No sabemos qué son exactamente la inteligencia, la conciencia y los sentimientos., ni si necesitamos los tres elementos para que una entidad sea consciente de sí misma. Sabemos distinguirlos, pero no los definimos con precisión”, reflexiona Lorena Jaume-Palasí, experta en ética y filosofía jurídica relacionada con la tecnología y asesora del Gobierno español y del Parlamento Europeo en temas de inteligencia artificial.

Intentar Humanizar las computadoras es un comportamiento muy humano.. “Hacemos esto todo el tiempo con todo. Incluso vemos caras en las nubes o en las montañas”, explica Jaume-Palasí. Incluso con las máquinas, bebemos de la herencia racionalista europea. “De acuerdo con la tradición cartesiana, tendemos a creer que podemos delegar el pensamiento y la racionalidad en las máquinas. Creemos que el hombre razonable está por encima de la naturaleza, que puede dominarla”, sugiere el filósofo. “Me parece que la discusión sobre si un sistema de inteligencia artificial es consciente o no es parte de una tradición de pensamiento en la que intentan extrapolar a tecnologías distintivas que no tienen ni tendrán”.

See also  Filmus apoyó el proyecto de creación del Área Marina Protegida Agujero Azul

Que ha sido un tiempo prueba de Turing fue superado. Formulado en 1950 por el famoso matemático e informático Alan Turing, este test consiste en hacer una serie de preguntas a una máquina ya una persona. La prueba se pasa si el interlocutor no puede decir si el que responde es el humano o la computadora. Más recientemente, se han propuesto otros, como prueba winograd, de 2014, que requiere sentido común y conocimiento del mundo para responder satisfactoriamente a las preguntas. Nadie ha logrado superarlos por el momento.

“Puede ser que haya sistemas de IA que logren engañar a los jueces que les hacen preguntas. Pero eso no prueba que una máquina sea inteligente, sino que ha sido bien programada para engañar‘, enfatiza López de Mántaras.

¿Veremos alguna vez inteligencia artificial general? Es decir, una IA que sea igual o superior a la mente humana, que entienda de conexiones, que sea capaz de relacionar elementos y anticipar situaciones como lo hacen los humanos. Esta pregunta es en sí misma un campo de especulación tradicional en la disciplina. La comunidad científica está de acuerdo en que es muy poco probable que esto suceda durante el resto del siglo.

Sin embargo, es posible que los constantes avances en IA den lugar a más reacciones como la de Blake Lemoine (aunque no necesariamente tan teatralmente). “Debemos estar preparados para tener discusiones que a menudo serán incómodas”, concluye el ex asociado de Lemoine.

Leave a Comment