Hace casi una década, Stephen Hawking comenzó a advertirnos sobre los peligros potenciales de la inteligencia artificial. Una de las ramas de esta ciencia es el aprendizaje automático, cuyo objetivo es desarrollar técnicas que permitan a las computadoras aprender. Y el lo hacen como muchos animales: aumentar su rendimiento a través de la experiencia y uso de datos, información.
Eso es exactamente lo que hace DepecheMood++, una herramienta informática desarrollada por científicos de la Universidad Politécnica de Madrid (UPM), la Fundación Bruno Kessler de Italia, la Universidad de Twente (Países Bajos) y la empresa francesa Recital. Básicamente lo que hace DepecheMood++ es reconocer y aprender las emociones que siente una persona al leer diferentes textos. Según sus responsables, el sistema enseña cómo las personas expresan emociones mediante algoritmos de aprendizaje, algoritmos que están presentes en la mayoría de los dispositivos conectados.
No se trata de “espiar” las emociones humanas y apoderarse de ellas, según los responsables de la agencia EFE, más bien un paso importante hacia la inteligencia artificial “completa” y la capacidad de pensar como un ser humano. Esto permite, por ejemplo, reconocer mensajes de odio en las redes sociales o trastornos mentales en los internautas.
“Generar desinformación es relativamente fácil –explica Óscar Araque del Grupo de Sistemas Inteligentes de la UPM a la agencia EFE–, pero analizar y argumentar por qué esa información es errónea es mucho más caro. esta herramienta se puede utilizar para analizar los mensajes de las personas que sufren de depresión e incluso recomendarle que busque tratamiento. Hay muchos usos; algunas ni las imaginamos, pero creo que herramientas como esta nos pueden ayudar a entendernos a nosotros mismos y así avanzar como sociedad.”
DepecheMood++ es capaz de reconocer hasta seis emociones diferentes: miedo, diversión, felicidad, tristeza, enfado e ira y actualmente solo está disponible en inglés e italiano. Aparentemente Su impacto puede ser enorme, tanto en salud mental como en prevención de delitos, pero también puede convertirse en una herramienta para “espiar” a las personas.. Algo que Araque tiene claro ya que insiste en que es solo un recurso que actualmente se usa solo para investigación. De hecho, añade, ya han rechazado propuestas de empresas para sacar ventaja económica. También apunta al riesgo que siempre conllevan los prejuicios (de raza o género) en todos los sistemas de inteligencia artificial y las consecuencias que puede tener en el día a día de las personas. Son muchos de los gigantes que han tenido que enfrentarse a las IA con cerebro de carrera, incluidos Google y Facebook.
Al mismo tiempo, Araque explica que una empresa que sea muy activa en las redes sociales y quiera saber qué opinan sus clientes sin tener que recurrir a un resumen para analizar los miles de comentarios que puede recibir cada día utilizaría esta herramienta. A saber, Las ofertas de las empresas para tener DepecheMode+++ han sido rechazadas en este momento, pero no se pueden descartar para el futuro.. Ya sea DepecheMode+++ o una nueva IA con habilidades similares. Pero sucederá seguro.
Y en este momento quizás recordemos a Daniela Cerqui, antropóloga de la Universidad de Lausana (Suiza), a quien le preguntaron si Hawking estaba exagerando, y su respuesta en 2014 fue muy clara: “Estamos delegando cada vez más prerrogativas humanas a estas máquinas., para que sean más competentes que nosotros. Al final seremos sus esclavos”.