Más de 1000 críticos preocupados de la inteligencia artificial, desde ejecutivos de la industria y académicos hasta especialistas en tecnología, han firmado una carta abierta pidiendo un descanso de al menos seis meses en grandes experimentos abiertos con tecnología.

Las empresas que investigan la IA están «encerradas en una carrera incontrolable para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de manera confiable», dice la carta. . «Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria».

La carta advierte sobre escenarios potencialmente catastróficos.

«¿Deberíamos desarrollar mentes no humanas que eventualmente podrían ser más numerosas, más inteligentes, más obsoletas y reemplazarnos?» se necesita. “¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse en líderes tecnológicos no elegidos.

El CEO de SpaceX y Tesla, Elon Musk, el cofundador de Apple, Steve Wozniak, el científico jefe de IBM, Grady Booch, el CEO de Stability AI, Emad Mostaque, y el ético tecnológico Tristan Harris firmaron la carta, que se publicó el miércoles por la mañana.

Entre los académicos que lo firmaron se encuentran Stuart Russell, quien dirige el Centro de Inteligencia Artificial Compatible con Humanos en la Universidad de California en Berkeley, el historiador de la Universidad Hebrea de Jerusalén Yuval Noah Harari y Sean O’Heigeartaigh, director ejecutivo del Centro de el Estudio de Existencial en la Universidad de Cambridge. Riesgo.

Las herramientas de inteligencia artificial disponibles para el público se están disparando en popularidad y capacidad. ChatGPT, un chatbot sorprendentemente hábil que habla con fluidez pero lucha por ser preciso, se ha convertido, según algunas métricas, en el crecimiento más rápido demanda del consumidor en la historia en enero. Su empresa matriz, OpenAI, lanzó una nueva versión de su software de IA dos meses después. Y empresas tecnológicas como Google, Microsoft y Snapchat se apresuró a integrar dicha tecnología en su plataforma.

Vigilantes de la industria he advertido que estas empresas están probando efectivamente nuevas tecnologías en el público en general y que las empresas detrás de ellas las implementan sin considerar las consecuencias más amplias, como la forma en que podrían perturbar los mercados laborales.

Incluso el CEO de OpenAI, Sam Altman, ha repetidamente llamado para la regulación de la industria, aunque no estuvo entre el primer grupo de signatarios de la carta.

Si bien muchos están de acuerdo en que la industria de la IA avanza peligrosamente rápido, algunos expertos en ética han criticado la carta por centrarse en los daños teóricos y potenciales de la IA.

Sarah Myers West, directora ejecutiva del AI Now Institute, una organización sin fines de lucro que estudia el impacto de la tecnología de IA en la sociedad, dijo que la carta no tuvo en cuenta algunas preocupaciones importantes sobre la industria de la IA.

Dijo que empresas como Google y Microsoft están preparadas para dominar el mercado de IA de EE. UU., la tecnología podría dejar sin trabajo a muchos trabajadores creativos y las empresas están sobreestimando lo que pueden hacer sus productos. El mes pasado, la Comisión Federal de Comercio prevenido compañías de IA existentes contra afirmaciones potencialmente falsas sobre sus productos.

«Al centrarse en riesgos hipotéticos a largo plazo, se distrae de la regulación y el cumplimiento que necesitamos aquí y ahora», dijo Myers West.