El CEO de OpenAI, Sam Altman, advirtió que las conversaciones que los usuarios mantienen con ChatGPT podrían no ser privadas si son requeridas en un proceso legal.
Durante una entrevista en el pódcast This Past Weekend with Theo Von, Altman explicó que aún no existe un marco legal que proteja la confidencialidad de las interacciones con inteligencia artificial, como sí ocurre en conversaciones con médicos, abogados o terapeutas.
Esta falta de protección legal significa que, en caso de una demanda, un juez podría ordenar a OpenAI entregar el historial de chats de un usuario.
Altman recalcó que esto podría representar un riesgo para quienes usan ChatGPT como apoyo emocional, herramienta de coaching o incluso consejero de relaciones personales, algo cada vez más común entre jóvenes.
Altman señaló que, aunque muchas personas confían en la IA para tratar temas personales, estas interacciones no están amparadas por privilegios legales como la confidencialidad médico-paciente, y que esta es una de las principales preocupaciones actuales en el desarrollo de inteligencia artificial.
La advertencia cobra más relevancia en el contexto de la demanda que enfrenta OpenAI por parte del New York Times, que exige la conservación de millones de conversaciones de usuarios para investigar posibles violaciones a derechos de autor. La empresa ha aceptado esa medida judicial, aunque la considera excesiva.
Como dato curioso, el propio Altman admitió que no usa ChatGPT con regularidad, precisamente porque espera que exista una regulación clara que garantice la privacidad de los usuarios.
“Cuando hablas con un médico, un abogado o un terapeuta hay confidencialidad legal; con ChatGPT aún no hemos encontrado cómo aplicar eso”, concluyó el CEO.