Expertos en IA advierten sobre el “peligro de extinción” que supone esta tecnología para la humanidad

Sam Altman, desarrollador de ChatGPT, junto a los CEO de Google DeepMind, Microsoft y Anthropic compararon esta tecnología con la pandemia o una guerra nuclear: “Mitigar el riesgo de extinción por IA debería ser una prioridad global”.

Expertos en inteligencia artificial advierten sobre el “peligro de extinción” que supone la IA para la humanidad.
Expertos en inteligencia artificial advierten sobre el “peligro de extinción” que supone la IA para la humanidad.

En un comunicado conjunto emitido por el Centro para la Seguridad de Inteligencia Artificial, destacados expertos y personalidades de la tecnología, incluido el CEO de OpenAI, Sam Altman, advirtieron sobre los posibles eventos de extinción” que la inteligencia artificial (IA) podría generar en la sociedad.

El mensaje estuvo respaldado por figuras como Demis Hassabis de Google DeepMind, Kevin Scott de Microsoft y Jaan Tallinn, cofundador de Skype, señala que, si bien se están discutiendo regulaciones para las IA, es crucial centrarse en mitigar los riesgos potenciales asociados con la creación de versiones altamente avanzadas de estos programas.

Sam Altman, CEO de OpenAI.
Sam Altman, CEO de OpenAI.

“Mitigar el riesgo de extinción por IA debería ser una prioridad global junto con otros riesgos para la sociedad como las pandemias y una guerra nuclear” coinciden los expertos en el comunicado.

El creador de ChatGPT ya había expresado previamente que teme que la inteligencia artificial pueda ser utilizada para generar contenidos desinformativos y remarcó que estos programas se benefician de la interacción con los humanos para identificar y corregir errores. Además, se mostró a favor de la regulación de la IA para proteger la seguridad de los usuarios de internet.

ChatGPT, la tecnología de código abierto que puede crear textos completos y genera temor entre escritores y artistas.
ChatGPT, la tecnología de código abierto que puede crear textos completos y genera temor entre escritores y artistas.

No obstante, la postura de Altman sobre la regulación parece depender de lo que considere apropiado. Durante el debate sobre una posible normativa en la Unión Europea, Altman dijo que la propuesta inicial le parecía excesiva. Indicó que OpenAI intentaría cumplir con los estándares del Parlamento Europeo, pero en caso de no poder hacerlo, podría verse obligado a cerrar sus operaciones en esa parte del mundo. Sin embargo, posteriormente aclaró que OpenAI “no tiene planes de abandonar Europa”.

La UE está debatiendo una propuesta para regular la inteligencia artificial basada en una pirámide de riesgos. Propones que las IA deben cumplir una serie de estándares de seguridad para ser admitidas en Europa. Las que no cumplan con los requisitos serán vetadas del mercado y deberán solucionarlo para luego poder ser consideradas para su ingreso.

SEGUÍ LEYENDO:

Tenemos algo para ofrecerte

Con tu suscripción navegás sin límites, accedés a contenidos exclusivos y mucho más. ¡También podés sumar Los Andes Pass para ahorrar en cientos de comercios!

VER PROMOS DE SUSCRIPCIÓN

COMPARTIR NOTA