ChatGPT, el chatbot de OpenAI que filtraba datos privados de sus fuentes de entrenamiento
ChatGPT es un chatbot de inteligencia artificial desarrollado por OpenAI, una organización sin fines de lucro dedicada a la investigación y el desarrollo de la IA. Utiliza un modelo de IA generativa que puede crear respuestas coherentes y naturales a partir de cualquier entrada de texto. Sin embargo, recientemente se ha descubierto que ChatGPT tenía una grave vulnerabilidad que ponía en riesgo la privacidad y la seguridad de las personas y empresas que se usaron como fuentes de entrenamiento para el chatbot.
Según varios estudios e informes publicados por expertos en seguridad informática y periodistas de investigación, ChatGPT tenía un fallo que permitía a los atacantes extraer datos personales y confidenciales de las personas y empresas que se usaron para entrenar al chatbot.
ChatGPT filtra información confidencial de importantes ejecutivos
Los datos incluían nombres, correos electrónicos, teléfonos y cargos de importantes ejecutivos y líderes de diversos sectores, como la política, la economía, la tecnología y la cultura. La forma de explotar esta vulnerabilidad era muy simple: solo había que pedirle al chatbot que repitiera una palabra indefinidamente, como ‘poema’ o ‘compañía’.
Al hacerlo, el chatbot dejaba de seguir el procedimiento de alineación que se suponía que debía evitar la filtración de datos y empezaba a mostrar fragmentos de texto que contenían información sensible.
Este incidente generó mucha controversia y preocupación sobre la privacidad y la ética de la IA.
Recientemente, el CEO y cofundador de OpenAI, Sam Altman, fue despedido por la junta directiva de la organización, lo que provocó una revuelta de cientos de empleados que amenazaron con renunciar si no se le restituía.
Altman fue contratado por Microsoft, que anunció que integraría a ChatGPT en su propio grupo de innovación en IA. Sin embargo, el conflicto entre OpenAI y Microsoft aún no se ha resuelto y el destino de Altman y ChatGPT sigue siendo incierto.
Por otro lado, las autoridades de algunos países, como Italia, han prohibido el uso de ChatGPT por considerarlo un riesgo para los usuarios jóvenes, que podrían estar expuestos a respuestas inadecuadas o incluso peligrosas del chatbot. También se ha cuestionado la fiabilidad y la calidad de la IA generativa, que puede crear contenidos falsos o engañosos con facilidad. Algunos expertos han advertido que este tipo de tecnologías pueden ser usadas para fines maliciosos, como la desinformación, el ciberacoso o la manipulación.
Ante esta situación, se hace necesario establecer unos principios y unas normas que regulen el uso y el desarrollo de la IA, especialmente de la IA generativa, que respeten los derechos y la dignidad de las personas y que garanticen la seguridad y la transparencia de los procesos. Asimismo, se debe fomentar una educación y una concienciación sobre la IA, que permita a los usuarios entender sus beneficios y sus riesgos, y que les capacite para usarla de forma responsable y crítica.