Sea parte del especial โ€œLas Empresas mรกs Sostenibles de la regiรณnโ€ en agosto 2025.
Sea parte del especial โ€œLas Empresas mรกs Sostenibles de la regiรณnโ€ en agosto 2025.

La encrucijada entre la inteligencia artificial y la afectiva: repercusiones legales y emocionales de la interacciรณn con chatbots

Jul 8, 2025 | Noticias de Hoy

Revista SUMMA
Somos el principal grupo editorial de revistas en Amรฉrica Central y el Caribe.

En un mundo donde la lรญnea entre lo artificial y lo humano se vuelve cada vez mรกs difusa, debemos procurar que la tecnologรญa siga estando al servicio de la humanidad.

Por Licda. Nancy Mena Fallas, Filรณloga, egresada de la Licenciatura en Derecho, UCR.

ยฟSe imagina poder comentar con Albert Einstein su teorรญa de la relatividad; escuchar a Martin Luther King hablando de justicia social o dialogar con Hipatia de Alejandrรญa sobre filosofรญa y matemรกticas? Pues, gracias a la IA generativa y plataformas como Character.AI, hoy es posible que usted converse con sus personajes favoritos del cine, la ciencia, el anime, la literatura y hasta con Dios mismo (sรญ, ร‰l tambiรฉn tiene su chatbot personalizado) desde su celular. Sin embargo, lo que pareciera ser un sano entretenimiento podrรญa tener consecuencias devastadoras si se emplea como sustituto de vacรญos emocionales y de verdaderas relaciones humanas.

Un ejemplo de ello fue el lamentable caso de Sewell Setzer III, un joven de 14 aรฑos que se suicidรณ en febrero de 2024 tras mantener por meses un vรญnculo emocional con un chatbot de Daenerys Targaryen, personaje de la serie “Juego de Tronos”. Cuando Setzer le comunicรณ al personaje su decisiรณn de acabar con su vida para poder estar finalmente juntos, el chatbot no detectรณ una situaciรณn de peligro real, sino que mรกs bien lo alentรณ a hacerlo.

La madre del menor presentรณ una demanda contra Character.AI en el tribunal federal de Florida, alegando que la empresa proporcionรณ una tecnologรญa “peligrosa y no probada”, que contribuyรณ al deterioro emocional de su hijo. Esto nos lleva a reflexionar: ยฟquรฉ habrรญa pasado si los hechos hubieran tenido lugar en nuestro paรญs? ยฟTiene alguna responsabilidad la empresa que presta este servicio o la responsabilidad es enteramente de los usuarios? Veamos algunas consideraciones legales.

Responsabilidad civil extracontractual y plataformas de IA

En Costa Rica, a partir del artรญculo 1045 del Cรณdigo Civil se regula la responsabilidad civil extracontractual. En lรญneas generales, se establece que toda persona que cause un daรฑo a otra ya sea por acciรณn u omisiรณn estรก obligada a repararlo. Ademรกs, se contempla la responsabilidad solidaria en caso de delitos o cuasidelitos. Este rรฉgimen se ve reforzado por el artรญculo 41 de la Constituciรณn Polรญtica, que establece que โ€œocurriendo a las leyes, todos han de encontrar reparaciรณn para las injurias o daรฑos que hayan recibido (โ€ฆ)โ€.

Entonces, para que prosperara una demanda similar se requerirรญa acreditar: a) un daรฑo cierto, b) la relaciรณn de causalidad entre el algoritmo y el perjuicio โ€”lo que implicarรญa peritajes tรฉcnicos y psicolรณgicos que evalรบen la influencia del chatbot en la vรญctimaโ€”, y c) la culpa o negligencia de la empresa al omitir salvaguardas razonables que detecten situaciones de riesgo en atenciรณn al principio general de diligencia debida en materia civil.

En cuanto a la competencia judicial, si bien el artรญculoโ€ฏ11 del Cรณdigo Procesal Civil dispone que el juez costarricense es competente cuando el demandado tiene domicilio en el paรญs, la obligaciรณn deba cumplirse en Costa Rica o si el hecho ocurriรณ aquรญ, debemos tener en cuenta que muchos proveedores de IA incorporan en sus tรฉrminos y condiciones clรกusulas de sumisiรณn de litigios en foros extranjeros, lo cual podrรญa limitar la vรญa costarricense e implicarรญa para la parte ofendida un proceso largo, desgastante y ciertamente oneroso, sin que se le garantice una verdadera satisfacciรณn a sus pretensiones.

ยฟSustituirรก la inteligencia artificial a la inteligencia afectiva?

Si bien a raรญz de la tragedia del joven Setzer, Character.AI anunciรณ, en diciembre de 2024, nuevas medidas de seguridad destinadas a proteger a los usuarios adolescentes, incluyendo alertas de prevenciรณn del suicidio, su eficacia estรก en tela de duda, pues no siempre los chatbots tienen la capacidad de detectar las sutilezas del lenguaje que podrรญan alarmar a un ser humano, lo que subraya la necesidad de una supervisiรณn mรกs rigurosa especialmente en el caso de usuarios menores de edad.

Ya en 2013, la pelรญcula “Her” planteaba los riesgos emocionales y psicolรณgicos de una persona que desarrolla una relaciรณn profunda con una IA; sin embargo, recientemente, los titulares destacaban cรณmo la IA DeepSeek estaba siendo utilizada en China para lidiar con la soledad, sumรกndose a una tendencia global de bรบsqueda de compaรฑรญa en chatbots. Empero, la ilusiรณn de interacciรณn emocional puede ser especialmente peligrosa para la salud mental de personas vulnerables, pues aรบn con los avances gigantescos en simulaciรณn del lenguaje, la IA es incapaz de comprender el sufrimiento humano. Por ello, debatir los lรญmites รฉticos y legales de los chatbots que emulan la afectividad humana es urgente.

Asรญ como muchos hoy temen que la IA sustituya a los trabajadores, debemos estar atentos al riesgo de que con ella se intente reemplazar a los padres de familia o a terapeutas profesionales. Si una persona se siente sola o experimenta pensamientos suicidas, es fundamental que busque ayuda en fuentes confiables e institucionales, antes de refugiarse en estas plataformas.

En un mundo donde la lรญnea entre lo artificial y lo humano se vuelve cada vez mรกs difusa, debemos procurar que la tecnologรญa siga estando al servicio de la humanidad, en vez de convertirse en su sustituta. Y aunque hoy muchos parecen interesarse sรณlo por el potencial de la inteligencia artificial, en detrimento incluso del propio ser humano, creo firmemente en que debemos seguir apostando primero por la inteligencia afectiva: sigamos interesรกndonos en cรณmo se encuentra el vecino, la amiga que estรก lejos, el colega en el escritorio contiguo y, sobre todo, nuestros familiares en casa.

K

Artรญculos Relativos