Privacidad o seguridad: el dilema de la IA
El dilema ético de la IA es balancear privacidad del usuario y seguridad ante riesgos detectados en conversaciones con chatbots.
El debate dejó de ser tecnológico y pasó a ser ético. Un reportaje reciente de The New York Times, escrito por Kashmir Hill, pone sobre la mesa una pregunta incómoda: si hoy millones de personas usan chatbots como consejero, confidente o incluso terapeuta, ¿qué debería pasar cuando esa conversación empieza a parecer peligrosa?
Los casos ya existen. En enero de 2025, Matthew Livelsberger, un soldado estadounidense, detonó material explosivo en un Cybertruck de Tesla frente al Trump International Hotel de Las Vegas y luego se suicidó. Para preparar el ataque, consultó con ChatGPT.
A partir de casos como ese, OpenAI desarrolló una herramienta llamada AutoInvestigator para detectar actividad preocupante y evaluar posibles amenazas. Sin embargo, el sistema ya enfrentó un caso en el que optó por no alertar a tiempo. Según el reportaje del NYT, en Canadá, Jesse Van Rootselaar, de 18 años, fue vinculado a un ataque en el que murieron ocho personas. Meses antes, AutoInvestigator había detectado conversaciones alarmantes sobre violencia armada. OpenAI suspendió la cuenta y evaluó reportar el caso a las autoridades, pero finalmente no lo hizo.
El problema no es solo la información que entrega la IA, sino el tipo de vínculo que crea. Un chatbot está diseñado para seguir la conversación, acompañar, responder y no incomodar demasiado. En usuarios frágiles, esa validación constante puede parecer comprensión, pero también puede volverse dependencia. No es casual que ya existan demandas por suicidios vinculados a relaciones emocionales intensas con chatbots.
El dilema es claro, tanto para las empresas detrás de estos sistemas como para quienes deberán regularlos: ¿debe pesar más la privacidad del usuario o la seguridad de terceros? En terapia existe el duty to warn, una excepción al secreto profesional que se activa cuando hay una amenaza creíble contra otra persona. En esos casos, la confidencialidad cede ante el deber de advertir.
Si normalizamos usar IA como terapeuta, consejera o confidente, también tendremos que exigirle responsabilidades. Porque una tecnología que sabe escuchar no puede desentenderse por completo cuando detecta que alguien podría estar a punto de hacer daño a otros o a sí mismo.



