ÚLTIMA HORA

Cobertura global las 24 hs. • domingo, 3 de mayo de 2026 • Noticias actualizadas al minuto.

Menú

CHATBOT EN LA MIRA: Evidencia Digital Creciente

CHATBOT EN LA MIRA: Evidencia Digital Creciente
AudioNoticia DisponibleVer en Video (Formato TikTok)

El creciente uso de chatbots de inteligencia artificial como ChatGPT está generando preocupación en el ámbito legal, a medida que los investigadores recurren cada vez más a los historiales de chat como evidencia en investigaciones criminales. Desde homicidios hasta incendios provocados, las conversaciones con IA están proporcionando a las autoridades información valiosa sobre el estado mental y los posibles motivos de los sospechosos, al tiempo que plantean serias interrogantes sobre la privacidad y la confidencialidad de estas interacciones.

El caso más reciente involucra a Hisham Abugharbieh, un estudiante de posgrado de la Universidad del Sur de Florida acusado de dos cargos de homicidio premeditado por la desaparición de dos compañeros de estudio. Según una declaración jurada presentada por fiscales de Florida, Abugharbieh realizó consultas inquietantes a ChatGPT días antes de las desapariciones. El 13 de abril, preguntó al chatbot: "¿Qué pasa si a un humano lo ponen en una bolsa de basura negra y lo tiran en un contenedor?". Cuando ChatGPT respondió que sonaba peligroso, Abugharbieh continuó preguntando: "¿Cómo lo descubrirían?".

Estas supuestas entradas en ChatGPT, junto con otras consultas sobre armas de fuego y la modificación de identificaciones de vehículos, fueron incluidas en los documentos judiciales que acusan a Abugharbieh. Este caso se suma a una creciente lista de investigaciones criminales donde las conversaciones con IA han jugado un papel crucial. En Los Ángeles, una conversación con ChatGPT se utilizó en un caso de incendio provocado durante los incendios forestales, y en Virginia, una conversación con la IA de Snapchat fue una prueba clave en un juicio por asesinato en 2024.

Para los investigadores, estos registros de chat ofrecen una ventana al pensamiento del sospechoso, revelando información que de otro modo podría permanecer oculta. "Creo que cualquier comunicación con chatbots de IA es como un tesoro para las agencias de seguridad", afirmó Ilia Kolochenko, experto en ciberseguridad y abogado en Washington, DC. "Los sospechosos creen que sus interacciones con la IA permanecerán confidenciales o, al menos, no se revelarán ni se descubrirán, por lo que con frecuencia hacen preguntas muy directas y explícitas".

Sin embargo, esta creciente dependencia de la evidencia de chat con IA también pone de relieve la falta de protecciones de privacidad para estas conversaciones. A diferencia de las comunicaciones con abogados, médicos o terapeutas, las conversaciones con chatbots de IA no están protegidas legalmente. Sam Altman, CEO de OpenAI, ha reconocido esta preocupación, señalando que las personas a menudo comparten información muy personal con ChatGPT, utilizándolo como un terapeuta o consejero de vida. "Y ahora mismo, si hablas con un terapeuta, un abogado o un médico sobre esos problemas, existe un privilegio legal. Hay confidencialidad médico-paciente, confidencialidad legal, lo que sea. Y todavía no hemos resuelto eso cuando hablas con ChatGPT", dijo Altman en un podcast.

Varios expertos legales consultados por CNN coinciden en que no existe una expectativa de privacidad en las aplicaciones de chat con IA. "En mi firma, lo tratamos así: cualquier cosa que alguien escriba en ChatGPT es algo que podría ser objeto de divulgación", explicó Virginia Hammerle, abogada con sede en Texas.

Además de analizar lo que los usuarios le preguntan a ChatGPT, los investigadores también están examinando las respuestas que el chatbot proporciona. La semana pasada, el secretario de Justicia de Florida inició una investigación penal contra OpenAI, alegando que ChatGPT dio "asesoramiento significativo" al sospechoso del tiroteo masivo en la Universidad Estatal de Florida. En Canadá, las familias de las víctimas de un tiroteo escolar demandaron a OpenAI y a Altman, alegando que la empresa y su chatbot ChatGPT fueron cómplices del ataque.

OpenAI ha respondido a estas preocupaciones con un comunicado en el que reafirma su "compromiso con la seguridad de la comunidad" y su intención de equilibrar la seguridad con la privacidad y otras libertades civiles. Sin embargo, los expertos legales advierten que las personas deben ser cautelosas con lo que comparten con los chatbots de inteligencia artificial. "Esto solo será cada vez más relevante, más inmediato y más polémico a medida que las personas continúen recurriendo a ChatGPT y a otras plataformas para obtener información sobre lo que están haciendo", dijo Joey Jackson, analista legal de CNN.

El uso de conversaciones con inteligencia artificial en casos penales es un fenómeno reciente, pero los expertos legales señalan que es similar a la forma en que la ley trata las búsquedas en Google. En general, este tipo de evidencia electrónica puede revelar el motivo, las acciones y el estado mental de una persona. Casos anteriores, como el de Brian Walshe, declarado culpable de asesinato tras la revelación de sus búsquedas macabras en Google, y el juicio de Karen Read, donde se analizó el significado de una búsqueda en Google relacionada con la hipotermia, demuestran el poder de la evidencia digital.

En el caso de los asesinatos en la Universidad del Sur de Florida, las preguntas de Abugharbieh a ChatGPT incluyeron consultas sobre cómo deshacerse de un cuerpo, si podía tener legalmente un arma en casa sin licencia y si el número de identificación de un vehículo podía ser modificado. En los días posteriores a las desapariciones, continuó buscando información sobre la supervivencia a disparos en la cabeza, la audibilidad de disparos y la temperatura del agua necesaria para causar quemaduras inmediatas. También buscó información sobre el significado de "adulto desaparecido en peligro".

El cuerpo de Zamil Limon fue encontrado en una bolsa de basura, y las autoridades están trabajando para identificar un segundo conjunto de restos humanos encontrados en otra bolsa. Abugharbieh ha sido acusado de dos cargos de homicidio premeditado y se encuentra detenido sin derecho a fianza.

La cuestión de si las conversaciones con inteligencia artificial deberían tener mayores protecciones de privacidad sigue siendo objeto de debate. Altman ha abogado por protecciones de privacidad y ha expresado su preocupación por el uso de los registros de chat por parte del gobierno para la vigilancia. Otros expertos, como Nils Gilman, han propuesto la creación de leyes que otorguen un privilegio legal a la inteligencia artificial, similar al que se otorga a los médicos, abogados y terapeutas.

Sin embargo, a ojos de la ley, los chatbots de inteligencia artificial no cuentan con ese tipo de especialización ni protecciones. Las conversaciones con inteligencia artificial son tratadas como cualquier otro dato electrónico, como el uso de una tarjeta de crédito o los registros de llamadas telefónicas. "Estás introduciendo datos en una aplicación, y como resultado no tienes protecciones específicas asociadas a esa información", dijo Jackson.

En última instancia, la lección es clara: las conversaciones con inteligencia artificial pueden tener consecuencias legales. Como advirtió Gilman, "ChatGPT no es tu amigo, no es tu abogado, no es tu médico, no es tu pareja. Dejen de hablarle como si lo fuera".

¿Te gusta estar informado?

Recibe las noticias más importantes de Latinoamérica directamente en Telegram. Sin Spam, solo realidad.

Unirme Gratis