Musk y otros expertos en tecnología instan a detener nuevos avances en IA | Noticias de tecnología

Más de 1000 líderes tecnológicos están firmando una petición para que se detengan los “experimentos gigantes de IA” en respuesta al lanzamiento de GPT-4.

El empresario multimillonario Elon Musk y un grupo de líderes tecnológicos pidieron el miércoles una pausa en el desarrollo de poderosos sistemas de inteligencia artificial para dar tiempo a garantizar su integridad.

Una carta abierta firmada por más de 1,000 personas hasta la fecha, incluidos Musk y el cofundador de Apple, Steve Wozniak, fue en respuesta al reciente lanzamiento de GPT-4 de OpenAI, con sede en San Francisco, un sucesor más avanzado del chatbot ChatGPT ampliamente utilizado que funciona en inteligencia artificial. Ayude a iniciar una carrera entre los gigantes tecnológicos Microsoft y Google para presentar aplicaciones similares.

La compañía dice que su último modelo es mucho más poderoso que la versión anterior, que se usó para ejecutar ChatGPT, un bot capaz de generar fragmentos de texto incluso a partir de las indicaciones más breves.

“Los sistemas de IA con inteligencia competitiva humana pueden plantear riesgos profundos para la sociedad y la humanidad”, decía la carta abierta, titulada “Pausa de experimentos gigantes de IA”.

“Los sistemas de IA fuertes solo deben desarrollarse una vez que estemos seguros de que sus efectos serán positivos y que sus riesgos estarán bajo control”, dijo.

Musk fue un inversor inicial en OpenAI y ha pasado años en su junta directiva. Su empresa de automóviles, Tesla, ha desarrollado sistemas de inteligencia artificial para ayudar a potenciar su tecnología de conducción autónoma, entre otras aplicaciones.

La carta, organizada por el Future of Life Institute, financiado por Musk, fue firmada por destacados críticos y competidores de OpenAI, como el jefe de Stability AI, Emad Mostafa.

Varios gobiernos ya están trabajando para regular las herramientas de IA de alto riesgo. El miércoles, el Reino Unido publicó un documento que describe su enfoque, que dijo que “evitaría una legislación dura que podría sofocar la innovación”. Los legisladores de la Unión Europea de 27 naciones están negociando para aprobar reglas amplias para la inteligencia artificial.

“digno de confianza y leal”

La carta citaba un blog escrito por el fundador de OpenAI, Sam Altman, quien sugirió que “en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros”.

“Estamos de acuerdo. El punto es ahora”, escribieron los autores de la carta abierta.

“Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que detengan de inmediato, durante al menos seis meses, el entrenamiento de sistemas de IA más potentes que GPT-4”.

Hicieron un llamado a los gobiernos para que intervengan e impongan un congelamiento si las empresas no llegan a un acuerdo.

Los seis meses deben usarse para desarrollar protocolos de seguridad y sistemas de gobierno de IA y reenfocar la investigación para garantizar que los sistemas de IA sean más precisos, seguros y “confiables y leales”.

La carta no detalla los peligros revelados por GPT-4.

Pero investigadores como Gary Marcus de la Universidad de Nueva York, quien firmó la carta, han argumentado durante mucho tiempo que los chatbots son grandes mentirosos y tienen el potencial de ser una diseminación generalizada de desinformación.

Sin embargo, el autor Cory Doctorow comparó la industria de la IA con un esquema de “bomba y descarga”, argumentando que tanto el potencial como las amenazas de los sistemas de IA se han exagerado ampliamente.

Check Also

DeSantis vs Newsom: Intense faceoff illuminates rifts on taxes, immigration, and presidential ambitions

In a riveting 90-minute clash on Fox News Thursday night, Florida Governor Ron DeSantis and …

Leave a Reply

Your email address will not be published. Required fields are marked *