El Comisionado Federal de Privacidad ha iniciado una investigación sobre la empresa detrás de ChatGPT, un chatbot impulsado por IA muy popular.
La Oficina de Supervisión anunció el martes que había iniciado una investigación sobre OpenAI, con sede en EE. UU., porque recibió una denuncia que alegaba “la recopilación, el uso y la divulgación de información personal sin consentimiento”.
El comisionado de privacidad, Philippe Dufresne, dijo en un comunicado de prensa que la IA y su impacto en la privacidad son una prioridad máxima, y su oficina debe mantenerse a la vanguardia de los “desarrollos tecnológicos de rápido movimiento”.
La oficina de Dufresne dijo que no daría a conocer más detalles en este momento, pero su mandato es informar públicamente los resultados de las investigaciones una vez que hayan terminado.
ChatGPT, lanzado el pasado mes de noviembre, utiliza información escrita ya disponible en Internet para proporcionar respuestas de chat detalladas a las consultas planteadas por los usuarios. Ha sido explotado para crear de todo, desde código de computadora hasta scripts.
Microsoft usa una tecnología similar y más poderosa que OpenAI para actualizar sus motores de búsqueda y otros productos.
OpenAI no respondió a una solicitud de comentarios sobre la investigación del Comisionado de Privacidad.
Invitado por The Canadian Press para su propia respuesta, el bot ChatGPT dijo que, como modelo de lenguaje inteligente, “no tengo acceso a las respuestas o acciones actuales tomadas por la empresa que ejecuta ChatGPT, OpenAI, en relación con una investigación que está llevando a cabo la Oficina de Canadá del Comisionado de Privacidad”.
La respuesta del bot indicó que es común que las empresas bajo investigación cooperen con los reguladores y brinden información según lo exige la ley.
“OpenAI puede hacer una declaración pública sobre la investigación, o puede mantenerla confidencial hasta que se complete la investigación”, agregó.
Los críticos han expresado su preocupación por el plagio y la inteligencia artificial. La semana pasada, el organismo de control de la privacidad de Italia ordenó una prohibición mientras investigaba una supuesta violación de las bases de datos europeas.

El Comisionado de Protección de Datos de Alemania le dijo recientemente a un periódico alemán que el país podría dar el mismo paso.
Los 27 países que componen la Unión Europea están negociando una ley que clasificaría el software y las herramientas de IA en función de su nivel de riesgo percibido.
Los “riesgos y oportunidades” de la inteligencia artificial también se discuten durante una reunión el martes entre el presidente de los Estados Unidos, Joe Biden, y sus asesores en el Consejo de Ciencia y Tecnología.
La Casa Blanca dice que Biden “discutirá la importancia de proteger los derechos y la seguridad para garantizar la innovación responsable y las salvaguardas adecuadas”.
ChatGPT también es la fuente del asunto ante la Comisión Federal de Comercio de EE. UU. En una queja presentada ante el organismo de control del consumidor y publicada en su sitio web, el grupo de ética tecnológica dijo que ChatGPT es un riesgo para la privacidad y la seguridad pública.
El Centro de Inteligencia Artificial y Política Digital dijo en su queja, presentada el 30 de marzo, que la tecnología de OpenAI no cumple con los requisitos de la Comisión de Comercio de que la IA sea “transparente, interpretable, justa y empíricamente sólida mientras promueve la responsabilidad”.
La queja se presentó poco después de que una gran cantidad de estrellas de la industria tecnológica, incluidos Tesla, Twitter, SpaceX Elon Musk y el cofundador de Apple, Steve Wozniak, solicitaran en una carta abierta una suspensión de seis meses para que las empresas implementen tecnología de IA.
Organizada por el Future of Life Institute, una organización sin fines de lucro, la carta establece que en los últimos meses ha habido una “carrera descontrolada para desarrollar y desplegar mentes digitales más poderosas que nadie, ni siquiera los creadores, pueden comprender, predecir o controlar de manera confiable”.