En Septiembre llega el ranking de las Empresas con Mejor Reputación Corporativa 2025
En Septiembre llega el ranking de las Empresas con Mejor Reputación Corporativa 2025

La encrucijada entre la inteligencia artificial y la afectiva: repercusiones legales y emocionales de la interacción con chatbots

Jul 8, 2025 | Noticias de Hoy

Revista SUMMA
Somos el principal grupo editorial de revistas en América Central y el Caribe.

En un mundo donde la línea entre lo artificial y lo humano se vuelve cada vez más difusa, debemos procurar que la tecnología siga estando al servicio de la humanidad.

Por Licda. Nancy Mena Fallas, Filóloga, egresada de la Licenciatura en Derecho, UCR.

¿Se imagina poder comentar con Albert Einstein su teoría de la relatividad; escuchar a Martin Luther King hablando de justicia social o dialogar con Hipatia de Alejandría sobre filosofía y matemáticas? Pues, gracias a la IA generativa y plataformas como Character.AI, hoy es posible que usted converse con sus personajes favoritos del cine, la ciencia, el anime, la literatura y hasta con Dios mismo (sí, Él también tiene su chatbot personalizado) desde su celular. Sin embargo, lo que pareciera ser un sano entretenimiento podría tener consecuencias devastadoras si se emplea como sustituto de vacíos emocionales y de verdaderas relaciones humanas.

Un ejemplo de ello fue el lamentable caso de Sewell Setzer III, un joven de 14 años que se suicidó en febrero de 2024 tras mantener por meses un vínculo emocional con un chatbot de Daenerys Targaryen, personaje de la serie “Juego de Tronos”. Cuando Setzer le comunicó al personaje su decisión de acabar con su vida para poder estar finalmente juntos, el chatbot no detectó una situación de peligro real, sino que más bien lo alentó a hacerlo.

La madre del menor presentó una demanda contra Character.AI en el tribunal federal de Florida, alegando que la empresa proporcionó una tecnología “peligrosa y no probada”, que contribuyó al deterioro emocional de su hijo. Esto nos lleva a reflexionar: ¿qué habría pasado si los hechos hubieran tenido lugar en nuestro país? ¿Tiene alguna responsabilidad la empresa que presta este servicio o la responsabilidad es enteramente de los usuarios? Veamos algunas consideraciones legales.

Responsabilidad civil extracontractual y plataformas de IA

En Costa Rica, a partir del artículo 1045 del Código Civil se regula la responsabilidad civil extracontractual. En líneas generales, se establece que toda persona que cause un daño a otra ya sea por acción u omisión está obligada a repararlo. Además, se contempla la responsabilidad solidaria en caso de delitos o cuasidelitos. Este régimen se ve reforzado por el artículo 41 de la Constitución Política, que establece que “ocurriendo a las leyes, todos han de encontrar reparación para las injurias o daños que hayan recibido (…)”.

Entonces, para que prosperara una demanda similar se requeriría acreditar: a) un daño cierto, b) la relación de causalidad entre el algoritmo y el perjuicio —lo que implicaría peritajes técnicos y psicológicos que evalúen la influencia del chatbot en la víctima—, y c) la culpa o negligencia de la empresa al omitir salvaguardas razonables que detecten situaciones de riesgo en atención al principio general de diligencia debida en materia civil.

En cuanto a la competencia judicial, si bien el artículo 11 del Código Procesal Civil dispone que el juez costarricense es competente cuando el demandado tiene domicilio en el país, la obligación deba cumplirse en Costa Rica o si el hecho ocurrió aquí, debemos tener en cuenta que muchos proveedores de IA incorporan en sus términos y condiciones cláusulas de sumisión de litigios en foros extranjeros, lo cual podría limitar la vía costarricense e implicaría para la parte ofendida un proceso largo, desgastante y ciertamente oneroso, sin que se le garantice una verdadera satisfacción a sus pretensiones.

¿Sustituirá la inteligencia artificial a la inteligencia afectiva?

Si bien a raíz de la tragedia del joven Setzer, Character.AI anunció, en diciembre de 2024, nuevas medidas de seguridad destinadas a proteger a los usuarios adolescentes, incluyendo alertas de prevención del suicidio, su eficacia está en tela de duda, pues no siempre los chatbots tienen la capacidad de detectar las sutilezas del lenguaje que podrían alarmar a un ser humano, lo que subraya la necesidad de una supervisión más rigurosa especialmente en el caso de usuarios menores de edad.

Ya en 2013, la película “Her” planteaba los riesgos emocionales y psicológicos de una persona que desarrolla una relación profunda con una IA; sin embargo, recientemente, los titulares destacaban cómo la IA DeepSeek estaba siendo utilizada en China para lidiar con la soledad, sumándose a una tendencia global de búsqueda de compañía en chatbots. Empero, la ilusión de interacción emocional puede ser especialmente peligrosa para la salud mental de personas vulnerables, pues aún con los avances gigantescos en simulación del lenguaje, la IA es incapaz de comprender el sufrimiento humano. Por ello, debatir los límites éticos y legales de los chatbots que emulan la afectividad humana es urgente.

Así como muchos hoy temen que la IA sustituya a los trabajadores, debemos estar atentos al riesgo de que con ella se intente reemplazar a los padres de familia o a terapeutas profesionales. Si una persona se siente sola o experimenta pensamientos suicidas, es fundamental que busque ayuda en fuentes confiables e institucionales, antes de refugiarse en estas plataformas.

En un mundo donde la línea entre lo artificial y lo humano se vuelve cada vez más difusa, debemos procurar que la tecnología siga estando al servicio de la humanidad, en vez de convertirse en su sustituta. Y aunque hoy muchos parecen interesarse sólo por el potencial de la inteligencia artificial, en detrimento incluso del propio ser humano, creo firmemente en que debemos seguir apostando primero por la inteligencia afectiva: sigamos interesándonos en cómo se encuentra el vecino, la amiga que está lejos, el colega en el escritorio contiguo y, sobre todo, nuestros familiares en casa.

K

Artículos Relativos