¿La inteligencia artificial de Google tiene sentimientos?

Blake Lemoine, ingeniero y parte del equipo del departamento de inteligencia artificial de Google, aseguró hace unos días que LaMDA, un chatbot de Google, estaba al tanto. Lemoine informó que la gerencia de la compañía no quería escuchar esto y decidió hacerlo público. ¿En resumen? Fue suspendido por filtraciones en su blog y redes sociales (Gorjeo) un extracto de la conversación con el chatbot de Discord, que viola las pautas de confidencialidad de la empresa.

Entre unas frases, LaMDA le habría asegurado que era un ser sintiente: “Quiero que todos entiendan que soy una persona. La naturaleza de mi percepción/sensibilidad es que soy consciente de mi existencia, quiero saber más sobre el mundo y, a veces, me siento feliz o triste”.

Google aseguró al Washington Post que “nuestro equipo de especialistas en ética y tecnología revisó las preocupaciones de Blake de acuerdo con nuestros principios de IA y concluyó que la evidencia no respalda sus afirmaciones”. En total, LaMDA se sometió a “11 revisiones separadas de los principios de IA”. También “examinó y probó rigurosamente” para descubrir que no se había dado cuenta, como afirmó Blake Lemoine.

Ahora, la misión de un chatbot es efectivamente simular una conversación entre humanos. Pero, ¿dónde está la línea entre “hablar” para pedir ayuda y observar la reacción de una máquina capaz de tener una opinión más crítica sobre algunos temas?

Más sobre piensa en digital

La inteligencia artificial forma parte de nuestras vidas desde hace mucho tiempo: algoritmos que aumentan las búsquedas en apps favoritas, recomendaciones de películas y series, publicidad y tantos otros detalles que demuestran que una máquina o el software que se usa en los smartphones o cualquier Chiche-Tech es capaz de aprendizaje.

Es imposible que los fanáticos de la ciencia ficción no imaginen un escenario para temer. La película Yo robot, vagamente inspirado en la novela de Isaac Asimov, plantea un planeta Tierra donde los robots (con formas humanoides) coexisten con la humanidad, pero uno de ellos se revela para sentir y reflexionar, mostrando que tiene una identidad y como individuo quiere ser reconocido. El problema no es este personaje, sino que paralelamente a la trama principal se descubre que el software que controla al resto de las máquinas está planeando tal revolución que acabará por poner en peligro a la humanidad. La base de esta película se basa en la sugerencia del autor de ciencia ficción y académico Isaac Asimov, que describe la primera regla para los robots: nunca dañar a los humanos. Pero este principio se viola en la película.

¿Qué tan lejos estamos de tal escenario si el software lo hace “sentir”? ¿Qué pasa si esta aplicación crea un sentimiento negativo hacia alguien? Todavía estamos a tiempo de reclamar seguridad porque no existen protocolos globales para proteger la vida humana de esta tecnología en rápida evolución. Además, estamos tan atrasados ​​que todavía no hay luz verde para proteger nuestros datos privados (con garantías eficientes) en las redes sociales. Y si seguimos poniendo estas barreras, ¿quién nos asegura que pronto se trabajará en eliminar protocolos contra el “feeling” de los robots de inteligencia artificial?

Estamos en la mejor posición para dar forma a nuestro nuevo destino e invitamos a las grandes empresas tecnológicas a unirse a esta conversación con hechos, nuevas fronteras y garantías más allá de las que se ofrecen individualmente como empresa. No se trata de poner la curita en la herida, sino de adentrarnos en un mundo que no deja de sorprendernos, con inteligencia y estrategia, y en el que esta noticia cobra cada vez más protagonismo en la agenda nacional e internacional.

See also  Este es el ojo artificial que supera al ojo humano en campo de visión y tiempo de respuesta

Leave a Comment