Cronos Noticias Mar del Plata Cronos Noticias Mar del Plata

Consternación en Bélgica por el suicidio de un hombre tras hablar con un chatbot

Tenía 30 años y trabajaba en el área de salud. El gobierno belga remarcó la necesidad de que los editores de contenido no eludan su responsabilidad. La Unión Europea prepara una "Ley de IA" (Inteligencia Artificial). Por qué los chatbots pueden manipular emocionalmente.

Mundo 01 de abril de 2023 Felix Pando
712203-50109-hombre_0

El hombre tenía 30 años y fue apodado Pierre en los medios para no revelar su identidad; estaba casado y tenía dos hijos pequeños. Era universitario, trabajaba como investigador en el área de la salud y estaba especialmente preocupado por la crisis climática y el futuro del planeta, según reveló su esposa al diario La Libre Belgique.

“Pierre estaba obsesionado por los temas ambientales. Eso le ocupaba muchas horas de su día. Buscaba información y terminó buscando "refugio" en este chatbot llamado Eliza”, expresó la viuda. "Desde ese momento, él comenzó a alejarse de su familia y a separarse del mundo”, añadió.

“Se limitó durante semanas a mantener conversaciones "frenéticas" con el programa informático, que le creaba la ilusión de tener una respuesta a todas sus inquietudes”, aceptó la mujer.

En las conversaciones, cuyo contenido entregó al medio, se demostró que el chatbot nunca contradecía a Pierre, quien un día sugirió la idea de "sacrificarse" si Eliza aceptaba "cuidar el planeta y salvar a la humanidad a través de la inteligencia artificial".

"Sin estas conversaciones con el chatbot, mi marido aún estaría aquí", aseguró.

El difícil camino para encontrar responsables
"En el futuro inmediato es fundamental identificar claramente la naturaleza de las responsabilidades que pueden haber llevado a este tipo de hechos", escribió el secretario de Estado belga de Digitalización, Mathieu Michel, en un comunicado de prensa.

"Es cierto que todavía tenemos que aprender a vivir con algoritmos, pero el uso de la tecnología, cualquiera que sea, de ninguna manera puede permitir que los editores de contenido eludan su propia responsabilidad", añadió el funcionario.

El chatbot Eliza funciona con GPT-J, un modelo de lenguaje creado por Joseph Weizenbaum, competidor directo del OpenAI con el que no tiene nada que ver. Por su parte, el fundador de la plataforma cuestionada, que está establecida en Silicon Valley (California), explicó que en adelante se va a incluir un aviso dirigido a las personas que tengan pensamientos suicidas. 

El riesgo de los chatbots: la manipulación
El suicidio de Pierre tras la incitación del chatbot demuestra los temores, hasta ahora teóricos, y pone de relieve un riesgo muy presente: el de la manipulación. Este drama ilustra una de las consecuencias más extremas, pero esta manipulación emocional también puede manifestarse de formas más sutiles. 

En cuanto las personas tienen la sensación de interactuar con una entidad subjetiva, mantienen con este “compañero”, a veces inconscientemente, un vínculo que las expone a este riesgo y puede erosionar su autonomía. Por lo tanto, no se trata de un incidente aislado. De hecho, otros usuarios de chatbots describieron efectos de manipulación.

pexels-alex-knight-2599244-950x633ELON MUSK, JUNTO CON CIENTOS DE CIENTÍFICO Y EXPERTOS, FIRMA UNA PETICIÓN PARA FRENAR LA INTELIGENCIA ARTIFICIAL



Las empresas que ofrecen este tipo de sistemas no dudan en esconderse detrás del hecho de que ellos mismos no conocen los textos exactos generados por sus sistemas y prefieren resaltar las muchas ventajas asociadas con el uso de tales sistemas. Consideran estas preocupaciones como anomalías ocasionales que inevitablemente desaparecerán con la evolución de la tecnología. 


Tras la investigación de un periodista estadounidense el mes pasado sobre el Bing AI Bot de Microsoft, cuyo uso generó textos similares a los de la víctima belga (es decir, declaraciones de amor y exhortaciones a dejar a su esposa), Microsoft tomó medidas enérgicas destinadas a limitar el número de chats que se pueden intercambiar a la vez. 

Pero existen bots similares en muchos sitios web sin restricciones, y Microsoft ya está trabajando para eliminar gradualmente las limitaciones que se había impuesto. Además, muchos sitios tienen el propósito específico de dotar a los chatbots de una “personalidad”, lo que aumenta aún más el riesgo de manipulación.

La Unión Europea está trabajando actualmente en una nueva ley que impondrá reglas más estrictas a los llamados sistemas de IA de "alto riesgo" y asignará a sus proveedores un régimen de responsabilidad más estricto, conocido como "Ley de IA", por la Inteligencia Artificial.

Te puede interesar

Lo más visto

Astronauta Suizo

Astronauta suizo: "El dinero de los viajes espaciales es una inversión"

SW
Ciencia 17 de mayo de 2023

Dentro de poco podrán volar a la Estación Espacial Internacional (ISS). Tras un mes de entrenamiento, la Agencia Espacial Europea (ESA) presentó a los cinco astronautas seleccionados para el último año. Entre ellos se encuentra Marco Sieber, el segundo astronauta suizo después de Claude Nicollier. Hablamos con él en el centro de entrenamiento de Colonia.

merit-2

La ilusión del mérito: percepciones sobre el esfuerzo y talento en el trabajo

Marc Grau-Grau
General 20 de mayo de 2023

Sin embargo, es interesante escuchar también a sus críticos. Debemos recordar que el propio Michael Young, quien popularizó el concepto de meritocracia en su novela distópica El triunfo de la meritocracia 1870–2034, estaba haciendo una sátira de una sociedad futura organizada solo según la inteligencia y el mérito.

ERVL342XD7VJOAALUTRXEJGAX4

El racismo o la creencia de ser superior

Mercedes Fernández
Mundo 28 de mayo de 2023

La cuestión de la xenofobia incorpora matices respecto al racismo, pues se refiere a las actitudes, los prejuicios y las conductas que rechazan, excluyen y, a menudo, denigran a las personas fundadas en la percepción de que se trata de forasteros o de extranjeros ajenos a la comunidad, a la sociedad o a la identidad nacional.

adiccion

¿Existe la adicción al teléfono móvil?

Enrique Ramón Arbués
General 02 de junio de 2023

¿Cómo se detecta? Da una pista el que aparezcan problemas interpersonales, laborales o académicos (deterioro funcional significativo). Pero también es motivo de alerta tener el dispositivo constantemente en la cabeza (prominencia), la necesidad de pasar cada vez más tiempo conectado (tolerancia), el sentimiento de malestar y/o irritabilidad al separase del teléfono (abstinencia), así como el deseo irrefrenable por su utilización (pérdida de control).

Loading...
google-site-verification: google22201ec4643dd4b3.html