La Inteligencia Artificial y el suicidio

 MIRANDO POR EL RETROVISOR

Por Juan Salazar 

Hace un tiempo citĂ© el caso de un niño que, al escucharlo interactuar en su tableta electrĂłnica en un juego con su amiguito virtual, le dijo: “Lo voy a matar y luego me irĂ© para el cielo”. Quien analiza detenidamente la expresiĂłn sabe que estaba planteando un crimen-suicidio.

Algunos padres y madres minimizarán el asunto con la expresiĂłn de que se trata de un “simple juego” al que no deberĂ­a prestársele la mayor importancia. “Cosas de niños”, dirán para resumirlo.

Esa no debería ser la actitud, si realmente aspiramos a proteger a nuestros niños, niñas y adolescentes de los riesgos que enfrentan a diario con el uso de las modernas tecnologías, ahora mucho más con el entusiasta potencial de la Inteligencia Artificial (IA).

La semana pasada Gavin Newsom, el gobernador de California, firmĂł una ley para regular los chatbots de IA, a fin de proteger a los menores de edad de los eventuales peligros de la tecnologĂ­a.

El gobernador demĂłcrata argumentĂł para justificar la aprobaciĂłn de la norma que “las tecnologĂ­as emergentes, como los chatbots y las redes sociales, pueden inspirar, educar y conectar, pero sin verdaderas salvaguardias, la tecnologĂ­a tambiĂ©n puede explotar, engañar y poner en peligro a nuestros niños”.

La nueva legislación exige a las plataformas digitales advertir a los usuarios que están interactuando con un chatbot y no con un humano. En el caso de niños, niñas y adolescentes, la notificación aparecerá cada tres horas.

Las empresas tecnológicas también deben aplicar un protocolo para prevenir contenido de autolesiones y remitir a los usuarios a proveedores de servicios de crisis cuando expresen pensamientos o ideas suicidas.

¿Por quĂ© se adoptĂł la ley en ese Estado norteamericano? Por los informes confirmados de que chatbots de Meta, OpenAi y otros fabricantes mantienen conversaciones altamente sexualizadas con menores de edad y que en algunos casos trivializan sus confesiones de ideas suicidas.

Un caso que ha acaparado la atención ocurrió a principios del presente año, cuando Adam Raine se quitó la vida tras una prolongada interacción con ChatGPT. Los padres del adolescente de 16 años demandaron en la Corte Superior de California a OpenAI y a su CEO, Sam Altman, alegando que el chatbot instruyó al joven en la planificación y ejecución de su suicidio.

Adam comenzó a utilizar ChatGPT en septiembre de 2024 para que le ayudara con sus tareas escolares, pero luego pasó a otro nivel con esa herramienta de IA, la que se convirtió prácticamente en su confidente, especialmente al consultarla sobre sus episodios de angustia y ansiedad.

En un caso parecido, en febrero de 2024, en Florida, la adolescente de 14 años, Sewell Setzer, también se suicidó tras una constante interacción con un chatbot de Character. La herramienta de IA personificaba a la princesa Daenerys Targaryen, de Juego de Tronos, lo que también llevó a Setzer a convertirla en su entrañable amiga.

En otro reciente, la escritora Laura Reiley describiĂł cĂłmo su hija Sophie confiĂł a ChatGPT sus ideas suicidas. Reiley revelĂł, en un ensayo escrito sobre el caso, que el chatbot ayudĂł a su hija a ocultarles a sus familiares la grave crisis de salud mental que padecĂ­a.

Cada día es más extensivo el uso de la Inteligencia Artificial para realizar tareas escolares y universitarias.

Los tres casos muestran una realidad preocupante: como la IA se puede convertir en el sustituto de los progenitores y de un real profesional de la conducta, al momento de los menores de edad sincerarse sobre sus angustias, ansiedades y anhelos.

La disrupción de la IA en todos los ámbitos de la existencia humana es innegable, y la salud mental no es la excepción.

Su capacidad para evaluar amplios volúmenes de datos, incluidas las historias médicas, constituyen un aporte valioso para ahorrar tiempo en determinar un diagnóstico temprano y definir un tratamiento oportuno.

Quienes ya defienden su uso en la atención de la salud mental, plantean que las aplicaciones y chatbots de IA pueden ofrecer apoyo emocional las 24 horas del día. Citan el éxito alcanzado con aplicaciones como Woebot, Replika, Wysa y Youper, las cuales brindan apoyo emocional en tiempo real y en cualquier lugar, aliviando la ansiedad y el estrés a pacientes en momentos críticos.

Los opuestos alegan que, aunque simulen empatĂ­a y conexiĂłn humana, los chatbots carecen de sentimientos genuinos. Y sostienen que la IA es una herramienta de apoyo, no un reemplazo para la terapia brindada por un ser humano.

Otro elemento a tomar en cuenta es el uso ético de la IA, especialmente en lo relativo a la privacidad y seguridad de la información sensible y confidencial aportada por el paciente.

Como en nuestro paĂ­s está tan arraigada la etiqueta de que quien acude a un psiquiatra está “loco”, la despersonalizaciĂłn de la atenciĂłn en salud mental podrĂ­a imponerse, porque el paciente se sentirĂ­a más cĂłmodo de confesarse ante un chatbot de IA, como ocurriĂł con los casos de Adam, Sewell y Sophie.

SerĂ­a como recibir terapia, sin el temor a experimentar la vergĂĽenza de ser estigmatizado y juzgado.

Tomando en cuenta todos esos aspectos, como en California, las autoridades dominicanas deberĂ­an plantearse seriamente la necesidad de regular el uso de los chatbots de IA.

Así como ocurrió con esos jóvenes estadounidenses, niños, niñas y adolescentes dominicanos podrían comenzar a explorar con la IA, en un principio para realizar tareas asignadas en sus centros educativos. En las universidades ya es una realidad, incluso con tareas hechas totalmente con esa herramienta tecnológica, sin un aporte tan siquiera mínimo del estudiante.

Pero luego esos menores de edad podrían pasar a otro escenario de interacción con sus amigos virtuales, con pláticas de contenido sexual y hasta convertir a los chatbots en los confidentes de sus problemas emocionales.

Nunca está demás fijarse en el espejo ajeno. Hay que recordar que en el paĂ­s somos muy dados a ignorar que “cuando el rĂ­o suena, es porque agua trae”.

Somos tambiĂ©n “rápidos y furiosos” para imitar y asimilar lo foráneo que termina socavando nuestra cultura e idiosincrasia. Pero lo positivo solemos ignorarlo.

Como reza un estribillo de “La canciĂłn del elegido”, tema musical compuesto e interpretado magistralmente por el cantautor cubano Silvio RodrĂ­guez: “Lo más terrible se aprende enseguida y lo hermoso nos cuesta la vida”. Y lo más penoso es que al final somos incapaces de ir entre “humo y metralla matando canallas”, con un cañón del presente y futuro (El detalle del “presente” no está en la canciĂłn original).

El presente que ya comenzamos a observar con todo el potencial que encierra el uso de la IA, pero con escasa supervisiĂłn de padres y educadores. Y el futuro impredecible que ya se vislumbra sin la regulaciĂłn que amerita esta herramienta con capacidades inimaginables.



No hay comentarios

Con la tecnologĂ­a de Blogger.