La administración Trump está considerando supervisar los modelos de IA, informó el lunes The New York Times.
SBA a través de Getty Images
La administración Trump está analizando el seguimiento de nuevos modelos de IA, según el New York Times.
Los expertos en política tecnológica dicen que esa supervisión podría frenar la innovación.
Agregaron que dicha regulación debería surgir de una legislación y no de un decreto.
La administración del presidente Donald Trump está discutiendo la supervisión gubernamental del despliegue de nuevos modelos de IA, informó el lunes The New York Times.
La administración está considerando una orden ejecutiva para crear un grupo de trabajo de ejecutivos tecnológicos y funcionarios públicos para decidir cómo se llevará a cabo la vigilancia, informó el Times, citando a funcionarios estadounidenses y personas familiarizadas con las discusiones.
El informe dice que los funcionarios de la Casa Blanca informaron a los ejecutivos de Anthropic, Google y OpenAI sobre algunos de estos proyectos.
Esta supervisión marcaría un cambio con respecto a la posición de Trump sobre la IA. Durante su segundo mandato, el presidente dio prioridad a la desregulación y la innovación, diciendo que un control estricto podría obstaculizar la competitividad de Estados Unidos frente a China.
La medida se produce cuando los responsables políticos enfrentan la presión de funcionarios de seguridad nacional y analistas de tecnología para considerar los riesgos que plantean los poderosos sistemas de inteligencia artificial, como Mythos de Anthropic.
Esto es lo que dicen los expertos en tecnología y políticas sobre la posible regulación:
Daniel Castro, presidente de la Fundación para las Tecnologías de la Información y la Innovación
Daniel Castro
ITIF
Daniel Castro, presidente del grupo de expertos en ciencia y tecnología ITIF, enumeró varias razones por las que el posible decreto es una “idea terrible” sobre X.
En primer lugar, dijo que se trataba de una “aceptación total” del principio de precaución: la idea de que los gobiernos deben proteger al público de los riesgos, incluso sin una certeza científica total.
«Esto significaría que las empresas necesitan permiso del gobierno para innovar. Esto revertiría el principio predeterminado de construir libremente para preguntar primero», escribió Castro en
Añadió que otros riesgos incluyen que las empresas de tecnología tengan que complacer a cada administración, lo que permitirá que otros países sigan avanzando y desacelerará la innovación.
“La innovación avanzaría a la velocidad de Washington, no a la velocidad de Silicon Valley”, escribió. «Cada lanzamiento de producto, actualización de funciones o lanzamiento de modelo sería lento. El gobierno no es conocido por su velocidad».
Janet Vestal Kelly, directora ejecutiva de Alianza para un Futuro Mejor
Janet Vestal Kelly, que dirige la Alianza para un Futuro Más Brillante, un grupo de defensa de tendencia conservadora, calificó la posible verificación de los modelos de IA como “buenas noticias”.
“La IA es la tecnología más poderosa que el mundo haya conocido y, si se las deja a su suerte, las grandes empresas tecnológicas pisotearán a los niños, los trabajadores y los valores estadounidenses”, escribió en un comunicado compartido en X el lunes.
«Con el enfoque correcto, Estados Unidos puede tener una IA que proteja a los niños, los empleos y a nuestra nación, y también ganar la carrera de la IA contra China», añadió Kelly.
Adam Thierer, analista del R Street Institute
Adam Thierer, analista de políticas de innovación en el grupo de expertos de libre mercado R Street Institute, dijo que una regulación significativa de la IA no debería ser la única decisión de Trump.
«Cualquier tipo de ‘examen’ preventivo de los modelos de IA por parte de la Casa Blanca podría equivaler a un régimen de licencias de facto, que ciertamente no debería implementarse mediante órdenes ejecutivas», escribió en X.
Thierer, quien explicó los modelos pioneros al Congreso, dijo que una de las primeras prioridades de Trump en su segundo mandato era deshacerse de la orden de IA de la era Biden.
“Las órdenes ejecutivas tienen su lugar, pero el Congreso debe ayudar a establecer un marco más estable que logre estos objetivos”, escribió.
Conor Grennan, director ejecutivo de AI Mindset
Conor Grennan
Clint Spaulding/Patrick McMullan vía Getty Images
Conor Grennan, consultor de inteligencia artificial y ex arquitecto jefe de inteligencia artificial en la Escuela de Negocios Stern de la Universidad de Nueva York, ha expresado su preocupación sobre este proceso de «verificación».
«¿Quién es responsable si algo sale mal: la IA o los revisores? ¿O qué sucede si un líder de IA critica a Trump? ¿Es este modelo de repente ‘demasiado peligroso’? ¿Y cómo se lleva a cabo esta revisión exactamente?» escribió en una publicación en LinkedIn.
Dijo que si bien las barreras de seguridad son necesarias, el hecho de que el gobierno tome estas decisiones «se va a complicar rápidamente».
Eli Dourado, jefe de inversiones estratégicas del Instituto Astera
Eli Dourado, que dirige las inversiones estratégicas en Astera, un instituto de investigación de IA sin fines de lucro, dijo que la propuesta podría significar muchas cosas diferentes.
«Si se trata de una revisión obligatoria de los modelos de IA antes de que puedan ser publicados, esto está en conflicto directo con la doctrina de restricción previa de la Primera Enmienda de los tribunales», escribió, refiriéndose a una ley constitucional que dice que el gobierno no puede detener el discurso antes de que ocurra.
Y añadió: «Parece poco probable que vuele».
Taylor Barkley, director de asuntos del gobierno federal del Abundance Institute
Taylor Barkley, director de la organización de políticas tecnológicas Abundance Institute, dijo que la posible regulación es un proceso de aprobación previa similar al del Reino Unido.
Lo llamó «un gigantesco paso atrás para la innovación y una reversión de la excelente política de IA del presidente Trump hasta el momento» porque ralentizaría la implementación y levantaría barreras de entrada.
Dijo que también otorga a los reguladores más poder que a los innovadores y socava el objetivo de la administración de reducir la burocracia.
«Por todas estas razones y más, el Congreso debe aclarar las acciones regulatorias apropiadas mediante la adopción de un marco nacional de IA», escribió Barkley en
Chris McGuire, miembro principal del Consejo de Relaciones Exteriores
Chris McGuire, investigador principal para China y tecnologías emergentes en el Consejo de Relaciones Exteriores, dijo que la medida sería un «giro regulatorio absolutamente necesario».
En un artículo sobre
«Esto significa implementar ciertos requisitos de ciberseguridad y seguridad física que se aplican a los laboratorios fronterizos de IA y a todos los proveedores de nube que albergan modelos avanzados de IA», escribió McGuire. «Esto también significa controlar las exportaciones de pesos de modelos avanzados de IA, para evitar que se transfieran a entidades que no son de confianza».
Añadió que la administración Biden tiene una política similar en materia de IA.
«La regla era compleja y de ninguna manera perfecta, pero fue un intento honesto de abordar un problema real al que la administración Trump ahora necesita su propia respuesta», escribió.
Thomas Woodside, asesor principal de políticas de Secure AI Project
Thomas Woodside, cofundador y asesor del grupo de políticas de IA Secure AI Project, dijo que un proceso de aprobación único para los modelos de IA puede no ser el enfoque correcto. En cambio, argumentó que el monitoreo debería ser continuo, porque los sistemas se actualizan con frecuencia y pueden plantear riesgos incluso durante el desarrollo y el uso interno.
Al igual que otros analistas de tecnología, Woodside dijo que dicho marco debería establecerse mediante legislación en lugar de acción ejecutiva.
Lea el artículo original en Business Insider
La administración Trump está considerando supervisar los modelos de IA, informó el lunes The New York Times.
SBA a través de Getty Images
La administración Trump está analizando el seguimiento de nuevos modelos de IA, según el New York Times.
Los expertos en política tecnológica dicen que esa supervisión podría frenar la innovación.
Agregaron que dicha regulación debería surgir de una legislación y no de un decreto.
La administración del presidente Donald Trump está discutiendo la supervisión gubernamental del despliegue de nuevos modelos de IA, informó el lunes The New York Times.
La administración está considerando una orden ejecutiva para crear un grupo de trabajo de ejecutivos tecnológicos y funcionarios públicos para decidir cómo se llevará a cabo la vigilancia, informó el Times, citando a funcionarios estadounidenses y personas familiarizadas con las discusiones.
El informe dice que los funcionarios de la Casa Blanca informaron a los ejecutivos de Anthropic, Google y OpenAI sobre algunos de estos proyectos.
Esta supervisión marcaría un cambio con respecto a la posición de Trump sobre la IA. Durante su segundo mandato, el presidente dio prioridad a la desregulación y la innovación, diciendo que un control estricto podría obstaculizar la competitividad de Estados Unidos frente a China.
La medida se produce cuando los responsables políticos enfrentan la presión de funcionarios de seguridad nacional y analistas de tecnología para considerar los riesgos que plantean los poderosos sistemas de inteligencia artificial, como Mythos de Anthropic.
Esto es lo que dicen los expertos en tecnología y políticas sobre la posible regulación:
Daniel Castro, presidente de la Fundación para las Tecnologías de la Información y la Innovación
Daniel Castro
ITIF
Daniel Castro, presidente del grupo de expertos en ciencia y tecnología ITIF, enumeró varias razones por las que el posible decreto es una “idea terrible” sobre X.
En primer lugar, dijo que se trataba de una “aceptación total” del principio de precaución: la idea de que los gobiernos deben proteger al público de los riesgos, incluso sin una certeza científica total.
«Esto significaría que las empresas necesitan permiso del gobierno para innovar. Esto revertiría el principio predeterminado de construir libremente para preguntar primero», escribió Castro en
Añadió que otros riesgos incluyen que las empresas de tecnología tengan que complacer a cada administración, lo que permitirá que otros países sigan avanzando y desacelerará la innovación.
“La innovación avanzaría a la velocidad de Washington, no a la velocidad de Silicon Valley”, escribió. «Cada lanzamiento de producto, actualización de funciones o lanzamiento de modelo sería lento. El gobierno no es conocido por su velocidad».
Janet Vestal Kelly, directora ejecutiva de Alianza para un Futuro Mejor
Janet Vestal Kelly, que dirige la Alianza para un Futuro Más Brillante, un grupo de defensa de tendencia conservadora, calificó la posible verificación de los modelos de IA como “buenas noticias”.
“La IA es la tecnología más poderosa que el mundo haya conocido y, si se las deja a su suerte, las grandes empresas tecnológicas pisotearán a los niños, los trabajadores y los valores estadounidenses”, escribió en un comunicado compartido en X el lunes.
«Con el enfoque correcto, Estados Unidos puede tener una IA que proteja a los niños, los empleos y a nuestra nación, y también ganar la carrera de la IA contra China», añadió Kelly.
Adam Thierer, analista del R Street Institute
Adam Thierer, analista de políticas de innovación en el grupo de expertos de libre mercado R Street Institute, dijo que una regulación significativa de la IA no debería ser la única decisión de Trump.
«Cualquier tipo de ‘examen’ preventivo de los modelos de IA por parte de la Casa Blanca podría equivaler a un régimen de licencias de facto, que ciertamente no debería implementarse mediante órdenes ejecutivas», escribió en X.
Thierer, quien explicó los modelos pioneros al Congreso, dijo que una de las primeras prioridades de Trump en su segundo mandato era deshacerse de la orden de IA de la era Biden.
“Las órdenes ejecutivas tienen su lugar, pero el Congreso debe ayudar a establecer un marco más estable que logre estos objetivos”, escribió.
Conor Grennan, director ejecutivo de AI Mindset
Conor Grennan
Clint Spaulding/Patrick McMullan vía Getty Images
Conor Grennan, consultor de inteligencia artificial y ex arquitecto jefe de inteligencia artificial en la Escuela de Negocios Stern de la Universidad de Nueva York, ha expresado su preocupación sobre este proceso de «verificación».
«¿Quién es responsable si algo sale mal: la IA o los revisores? ¿O qué sucede si un líder de IA critica a Trump? ¿Es este modelo de repente ‘demasiado peligroso’? ¿Y cómo se lleva a cabo esta revisión exactamente?» escribió en una publicación en LinkedIn.
Dijo que si bien las barreras de seguridad son necesarias, el hecho de que el gobierno tome estas decisiones «se va a complicar rápidamente».
Eli Dourado, jefe de inversiones estratégicas del Instituto Astera
Eli Dourado, que dirige las inversiones estratégicas en Astera, un instituto de investigación de IA sin fines de lucro, dijo que la propuesta podría significar muchas cosas diferentes.
«Si se trata de una revisión obligatoria de los modelos de IA antes de que puedan ser publicados, esto está en conflicto directo con la doctrina de restricción previa de la Primera Enmienda de los tribunales», escribió, refiriéndose a una ley constitucional que dice que el gobierno no puede detener el discurso antes de que ocurra.
Y añadió: «Parece poco probable que vuele».
Taylor Barkley, director de asuntos del gobierno federal del Abundance Institute
Taylor Barkley, director de la organización de políticas tecnológicas Abundance Institute, dijo que la posible regulación es un proceso de aprobación previa similar al del Reino Unido.
Lo llamó «un gigantesco paso atrás para la innovación y una reversión de la excelente política de IA del presidente Trump hasta el momento» porque ralentizaría la implementación y levantaría barreras de entrada.
Dijo que también otorga a los reguladores más poder que a los innovadores y socava el objetivo de la administración de reducir la burocracia.
«Por todas estas razones y más, el Congreso debe aclarar las acciones regulatorias apropiadas mediante la adopción de un marco nacional de IA», escribió Barkley en
Chris McGuire, miembro principal del Consejo de Relaciones Exteriores
Chris McGuire, investigador principal para China y tecnologías emergentes en el Consejo de Relaciones Exteriores, dijo que la medida sería un «giro regulatorio absolutamente necesario».
En un artículo sobre
«Esto significa implementar ciertos requisitos de ciberseguridad y seguridad física que se aplican a los laboratorios fronterizos de IA y a todos los proveedores de nube que albergan modelos avanzados de IA», escribió McGuire. «Esto también significa controlar las exportaciones de pesos de modelos avanzados de IA, para evitar que se transfieran a entidades que no son de confianza».
Añadió que la administración Biden tiene una política similar en materia de IA.
«La regla era compleja y de ninguna manera perfecta, pero fue un intento honesto de abordar un problema real al que la administración Trump ahora necesita su propia respuesta», escribió.
Thomas Woodside, asesor principal de políticas de Secure AI Project
Thomas Woodside, cofundador y asesor del grupo de políticas de IA Secure AI Project, dijo que un proceso de aprobación único para los modelos de IA puede no ser el enfoque correcto. En cambio, argumentó que el monitoreo debería ser continuo, porque los sistemas se actualizan con frecuencia y pueden plantear riesgos incluso durante el desarrollo y el uso interno.
Al igual que otros analistas de tecnología, Woodside dijo que dicho marco debería establecerse mediante legislación en lugar de acción ejecutiva.
Lea el artículo original en Business Insider
💡 Puntos Clave
Este artículo cubre aspectos importantes sobre AI,Tech,Politics,trump,anthropic,regulation,ai-regulation
Información verificada y traducida de fuente confiable
Contenido actualizado y relevante para nuestra audiencia
Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.