El cofundador de Apple, Steve Wozniak, es una de las más de mil figuras públicas que han pedido una prohibición temporal del desarrollo de la superinteligencia de IA. Otros firmantes incluyen premios Nobel, pioneros de la IA y otras luminarias de la tecnología…
EL declaración es breve y va al grano. Aquí está en su totalidad:
Las herramientas innovadoras de IA pueden generar salud y prosperidad sin precedentes. Sin embargo, además de las herramientas, muchas empresas importantes de IA tienen el objetivo declarado de construir una superinteligencia durante la próxima década que pueda superar significativamente a todos los humanos en prácticamente todas las tareas cognitivas. Esto ha generado preocupaciones, que van desde la obsolescencia económica y el desempoderamiento de la humanidad, hasta la pérdida de libertades civiles, dignidad y control, pasando por riesgos para la seguridad nacional e incluso riesgos potenciales. extinción humana. La sucinta declaración que figura a continuación pretende concienciar a todos sobre el creciente número de expertos y figuras públicas que se oponen a la carrera hacia la superinteligencia.
Pedimos que se prohíba el desarrollo de la superinteligencia, que no se levantará hasta
- amplio consenso científico de que esto se hará de manera segura y controlable, y
- fuerte apoyo público.
Otros signatarios notables incluyen:
- Geoffrey Hinton, pionero de la IA, a veces apodado «el padrino del aprendizaje profundo”
- Yoshua Bengio, investigador fundador de IA
- Stuart Russell, profesor de informática en UC Berkeley y experto en seguridad en IA
- Frank Wilczek y John C. Mather, físicos ganadores del Premio Nobel
- Los premios Nobel Beatrice Fihn y Daron Acemoğlu
- Susan Rice, exasesora de seguridad nacional de EE.UU.
Muchos de los mismos firmantes ya han declarado que la inteligencia artificial general (AGI) representa una amenaza para la extinción humana tan grande como las pandemias y la guerra nuclear.
Accesorios destacados
Foto por Comparar fibra seguro desempaquetar