Según The Washington Post, el ingeniero Blake Lemoine, que trabaja en la parte de Inteligencia Artificial de Google, estaba probando si el modelo LaMDA utilizaba discursos discriminatorios o de odio, y mientras hablaba de religión con el sistema, se dio cuenta de que el chatbot también abordaba cuestiones sobre sus derechos y su personalidad, opinando incluso sobre la tercera ley de la robótica de Isaac Asimov. 

Espacio Publicitario

Ya en abril, Lemoine había expresado sus preocupaciones a los ejecutivos en un documento llamado “¿Es MDA sensible?”, que incluía una transcripción de sus conversaciones con la IA, que publicó en Medium una vez que fue suspendido, con argumentos de que la Inteligencia tenía sentimientos, emociones e incluso experiencias subjetivas. 

Google consideró que las acciones relacionadas con su trabajo en LaMDA habían violado las políticas de confidencialidad de la empresa, según TWP, ya que llegó a realizar una serie de movimientos “agresivos”, como invitar a un abogado para que representara a la IA y hablar con un representante del Comité Judicial de la Cámara de Representantes sobre lo que consideraba actividades poco éticas de la empresa. 

Espacio Publicitario

¿Es posible que las inteligencias artificial tomen consciencia propia?

El portavoz de Google, Brian Gabriel, comentó con TWP que no tiene sentido considerar la posibilidad de una IA sintiente antropomorfizando los modelos conversacionales actuales que no tienen esa capacidad, ya que sólo imitan los intercambios encontrados en millones de frases. 

Espacio Publicitario

Gabriel añadió que incluso ha habido conversaciones con LaMDA por parte de investigadores e ingenieros y que hasta ahora nadie ha hecho las mismas afirmaciones ni ha antropomorfizado el sistema de la misma manera que Blake. 

Comments

comments