No se han implementado una sino dos herramientas de inteligencia artificial en la Administración de Alimentos y Medicamentos. Y, como era de esperar, no uno sino dos de ellos parecen apestar.
El comisionado de la FDA, Martin Makary, se ha entusiasmado con la AI en su departamento. Lamentablemente, está significativamente menos entusiasmado con las cosas que la FDA debería ser publicitada, como vacunas. Pero dado que Makary es funcionalmente un anti-vaxxer que dice eso El Panel Asesor de Vacunas de Control y Prevención de Enfermedades es una «corte de canguro» que «estampas de goma» todas las vacunas, tal vez sea mejor si permanece fijado con la IA.
La FDA anunció su despliegue de AI el mes pasado en un comunicado de prensa que se lee más como un mazo de lanzamiento.
«Me sorprendió el éxito de nuestro primer piloto de revisión científica asistida por AI-AI. Necesitamos valorar el tiempo de nuestros científicos y reducir la cantidad de trabajo ocupado no productivo que históricamente ha consumido gran parte del proceso de revisión», dijo Makary en el comunicado.
Y Jin Liu, subdirector de la Oficina de Ciencias de la Evaluación de Drogas de la FDA, se hizo eco del sentimiento de Makary.
«Esta es una tecnología de cambio de juego que me ha permitido realizar tareas de revisión científica en minutos que solían llevar tres días», dijo Liu.
Relacionado |La oscura realidad de convertirnos en la ‘Capital del Mundo de AI’
Por supuesto, las herramientas de IA reales ni siquiera se parecen remotamente a esta descripción.
Una herramienta, CDRH-GPT, está diseñada para ayudar a los empleados en la FDA’s Centro de dispositivos y salud radiológicaque revisa la seguridad de los dispositivos médicos. Se supone que la herramienta acelera las revisiones y aprobaciones de tales dispositivos, pero hasta ahora no está conectado a Cualquier otro sistema informático interno de la FDA, ni para fuentes externas de Internet como revistas médicas. Las personas familiarizadas con la herramienta le dijeron a NBC que también tiene problemas con tareas básicas como cargar documentos o permitir a los usuarios enviar preguntas.
La otra herramienta es Elsa, que Makary anunciado los lunes. Elsa ya se estaba utilizando para «acelerar las revisiones de protocolo clínico, acortar el tiempo necesario para las evaluaciones científicas e identificar objetivos de inspección de alta prioridad». Suena impresionante! Pero cuando el personal probó la herramienta haciendo preguntas sobre información disponible públicamente, las respuestas de Elsa fueron incorrectas.
Sin duda, el liderazgo de la FDA cuenta con estas herramientas de IA que funcionan, o al menos para todos nosotros para fingir que están trabajando, porque el Secretario de Salud y Servicios Humanos, Robert F. Kennedy Jr. purgado muchos de los principales líderes de la FDA y cortó la fuerza laboral por unos 3.500 empleados.

Sin embargo, la FDA no es la primera agencia en tratar de dar un gran chapoteo de IA. Ese honor pertenece a la administración de servicios generales, que desplegado GSAI (UGH) en marzo a una gran fanfarria bajo la dirección del ex/quizás actual/quizás el ex jefe de eficiencia del Departamento de Gobierno Elon Musk. A los empleados de GSA se les dijo que las opciones para sus usos «son interminables», incluidas tareas como redactar puntos de conversación o resumir correos electrónicos.
Pero un usuario Dicho Wired que «es tan bueno como un interno. Respuestas genéricas y adivinables».
No es exactamente un cambio del mundo. Además, después del lanzamiento de marzo, la mención de Gsai simplemente desapareció, sin comunicados de prensa brillantes sobre cuánto tiempo se ahorra, sin mencionar cómo está mejorando. Nada.
No está claro si alguno de Gsai fue construido a partir de los almizcle chatbot racista Grok, pero parece que Musk y Dege ya han Déjalo soltar En el Departamento de Seguridad Nacional, y hay muchos problemas con esto.
Primero, no parece haber habido ninguna prueba o revisión oficial de Grok. En segundo lugar, nadie sabe en qué datos se está entrenando, lo que significa que podría tener acceso a datos confidenciales o confidenciales. Tercero, teóricamente podría dar acceso a Musk a todo tipo de datos no públicos sobre corporaciones rivales. Cuarto, y este apenas vale la pena mencionar ya que los conflictos de intereses ya no importan, pero la capacidad de Musk para llevar su chatbot de IA de propiedad privada en los departamentos federales porque estaba trabajando para el gobierno en ese momento generalmente está mal vendido.
Parece que el HHS ya tenía la brillante idea de dejar que AI redactara parte del informe de Make America Health. La primera versión del informe presentado Estudios de salud que no existen, estudios atribuidos a autores que no los escriben, y citas al mismo estudio con diferentes autores, todos los cuales son problemas que provienen de la IA.
Pero en lugar de reconocer que implementar una iniciativa de salud con un montón de cosas inventadas no es excelente para el pueblo estadounidense, Calley significa, el hombre Maha Point de Kennedy, Fui en Newsnation Decir que las citas incorrectas fueron «un gran mal servicio para el presidente Trump y Bobby Kennedy».
La administración Trump ha ya decidido Para regular la IA con los toques más livianos, por lo que no parece que evite que el gobierno adopte herramientas de IA a medias. Ninguna de estas cosas se ha implementado con el tipo de pruebas largas que el gobierno federal generalmente requeriría, y no está claro que estas herramientas de IA puedan proporcionar incluso una fracción de lo que se promete.
En cambio, ofrecen inexactitudes e información fragmentada a las fuerzas laborales diezmadas por recortes de dux. De ninguna manera no está claro cómo es más eficiente que el gobierno use tecnología incompleta e inexacta en lugar de aprovechar a los miles de empleados federales que ya tienen conocimiento altamente especializado.
Pero desde que la administración Trump disparó a todas esas personas, la IA a medias lo es.