La Inteligencia Artificial y el suicidio
MIRANDO POR EL RETROVISOR
Por Juan Salazar
Hace un tiempo citĂ© el caso de un niño que, al escucharlo interactuar en su tableta electrĂłnica en un juego con su amiguito virtual, le dijo: “Lo voy a matar y luego me irĂ© para el cielo”. Quien analiza detenidamente la expresiĂłn sabe que estaba planteando un crimen-suicidio.
Algunos padres y madres minimizarán el asunto con la expresiĂłn de que se trata de un “simple juego” al que no deberĂa prestársele la mayor importancia. “Cosas de niños”, dirán para resumirlo.
Esa no deberĂa ser la actitud, si realmente aspiramos a proteger a nuestros niños, niñas y adolescentes de los riesgos que enfrentan a diario con el uso de las modernas tecnologĂas, ahora mucho más con el entusiasta potencial de la Inteligencia Artificial (IA).
La semana pasada Gavin Newsom, el gobernador de California, firmĂł una ley para regular los chatbots de IA, a fin de proteger a los menores de edad de los eventuales peligros de la tecnologĂa.
El gobernador demĂłcrata argumentĂł para justificar la aprobaciĂłn de la norma que “las tecnologĂas emergentes, como los chatbots y las redes sociales, pueden inspirar, educar y conectar, pero sin verdaderas salvaguardias, la tecnologĂa tambiĂ©n puede explotar, engañar y poner en peligro a nuestros niños”.
La nueva legislación exige a las plataformas digitales advertir a los usuarios que están interactuando con un chatbot y no con un humano. En el caso de niños, niñas y adolescentes, la notificación aparecerá cada tres horas.
Las empresas tecnológicas también deben aplicar un protocolo para prevenir contenido de autolesiones y remitir a los usuarios a proveedores de servicios de crisis cuando expresen pensamientos o ideas suicidas.
¿Por quĂ© se adoptĂł la ley en ese Estado norteamericano? Por los informes confirmados de que chatbots de Meta, OpenAi y otros fabricantes mantienen conversaciones altamente sexualizadas con menores de edad y que en algunos casos trivializan sus confesiones de ideas suicidas.
Un caso que ha acaparado la atención ocurrió a principios del presente año, cuando Adam Raine se quitó la vida tras una prolongada interacción con ChatGPT. Los padres del adolescente de 16 años demandaron en la Corte Superior de California a OpenAI y a su CEO, Sam Altman, alegando que el chatbot instruyó al joven en la planificación y ejecución de su suicidio.
Adam comenzó a utilizar ChatGPT en septiembre de 2024 para que le ayudara con sus tareas escolares, pero luego pasó a otro nivel con esa herramienta de IA, la que se convirtió prácticamente en su confidente, especialmente al consultarla sobre sus episodios de angustia y ansiedad.
En un caso parecido, en febrero de 2024, en Florida, la adolescente de 14 años, Sewell Setzer, también se suicidó tras una constante interacción con un chatbot de Character. La herramienta de IA personificaba a la princesa Daenerys Targaryen, de Juego de Tronos, lo que también llevó a Setzer a convertirla en su entrañable amiga.
En otro reciente, la escritora Laura Reiley describiĂł cĂłmo su hija Sophie confiĂł a ChatGPT sus ideas suicidas. Reiley revelĂł, en un ensayo escrito sobre el caso, que el chatbot ayudĂł a su hija a ocultarles a sus familiares la grave crisis de salud mental que padecĂa.
Cada dĂa es más extensivo el uso de la Inteligencia Artificial para realizar tareas escolares y universitarias.
Los tres casos muestran una realidad preocupante: como la IA se puede convertir en el sustituto de los progenitores y de un real profesional de la conducta, al momento de los menores de edad sincerarse sobre sus angustias, ansiedades y anhelos.
La disrupción de la IA en todos los ámbitos de la existencia humana es innegable, y la salud mental no es la excepción.
Su capacidad para evaluar amplios volúmenes de datos, incluidas las historias médicas, constituyen un aporte valioso para ahorrar tiempo en determinar un diagnóstico temprano y definir un tratamiento oportuno.
Quienes ya defienden su uso en la atenciĂłn de la salud mental, plantean que las aplicaciones y chatbots de IA pueden ofrecer apoyo emocional las 24 horas del dĂa. Citan el Ă©xito alcanzado con aplicaciones como Woebot, Replika, Wysa y Youper, las cuales brindan apoyo emocional en tiempo real y en cualquier lugar, aliviando la ansiedad y el estrĂ©s a pacientes en momentos crĂticos.
Los opuestos alegan que, aunque simulen empatĂa y conexiĂłn humana, los chatbots carecen de sentimientos genuinos. Y sostienen que la IA es una herramienta de apoyo, no un reemplazo para la terapia brindada por un ser humano.
Otro elemento a tomar en cuenta es el uso ético de la IA, especialmente en lo relativo a la privacidad y seguridad de la información sensible y confidencial aportada por el paciente.
Como en nuestro paĂs está tan arraigada la etiqueta de que quien acude a un psiquiatra está “loco”, la despersonalizaciĂłn de la atenciĂłn en salud mental podrĂa imponerse, porque el paciente se sentirĂa más cĂłmodo de confesarse ante un chatbot de IA, como ocurriĂł con los casos de Adam, Sewell y Sophie.
SerĂa como recibir terapia, sin el temor a experimentar la vergĂĽenza de ser estigmatizado y juzgado.
Tomando en cuenta todos esos aspectos, como en California, las autoridades dominicanas deberĂan plantearse seriamente la necesidad de regular el uso de los chatbots de IA.
AsĂ como ocurriĂł con esos jĂłvenes estadounidenses, niños, niñas y adolescentes dominicanos podrĂan comenzar a explorar con la IA, en un principio para realizar tareas asignadas en sus centros educativos. En las universidades ya es una realidad, incluso con tareas hechas totalmente con esa herramienta tecnolĂłgica, sin un aporte tan siquiera mĂnimo del estudiante.
Pero luego esos menores de edad podrĂan pasar a otro escenario de interacciĂłn con sus amigos virtuales, con pláticas de contenido sexual y hasta convertir a los chatbots en los confidentes de sus problemas emocionales.
Nunca está demás fijarse en el espejo ajeno. Hay que recordar que en el paĂs somos muy dados a ignorar que “cuando el rĂo suena, es porque agua trae”.
Somos tambiĂ©n “rápidos y furiosos” para imitar y asimilar lo foráneo que termina socavando nuestra cultura e idiosincrasia. Pero lo positivo solemos ignorarlo.
Como reza un estribillo de “La canciĂłn del elegido”, tema musical compuesto e interpretado magistralmente por el cantautor cubano Silvio RodrĂguez: “Lo más terrible se aprende enseguida y lo hermoso nos cuesta la vida”. Y lo más penoso es que al final somos incapaces de ir entre “humo y metralla matando canallas”, con un cañón del presente y futuro (El detalle del “presente” no está en la canciĂłn original).
El presente que ya comenzamos a observar con todo el potencial que encierra el uso de la IA, pero con escasa supervisiĂłn de padres y educadores. Y el futuro impredecible que ya se vislumbra sin la regulaciĂłn que amerita esta herramienta con capacidades inimaginables.



Escribe un comentario