Checkr analiza los contratos gubernamentales para ayudar a reducir el "fraude y el despilfarro"

 | AI,Tech,artificial-intelligence,law-gov-t-and-politics,legal-issues,health-care,technology,government,fraud,san-francisco,employment

📂 Categoría: AI,Tech,artificial-intelligence,law-gov-t-and-politics,legal-issues,health-care,technology,government,fraud,san-francisco,employment | 📅 Fecha: 1772018679

🔍 En este artículo:

Una startup de SF AI centrada en la verificación de identidad se ha fijado un objetivo ambicioso: conseguir contratos gubernamentales.

Daniel Yanisse, director ejecutivo de Checkr, dijo a Business Insider que la compañía quiere ayudar al gobierno a reducir el «fraude y el despilfarro» no sólo examinando a los nuevos empleados, sino también verificando la elegibilidad de las personas para beneficios como Medicare y la Seguridad Social.

Aunque Yanisse dijo que la compañía aún no está lista para hacer anuncios de productos, dijo que un sistema de ayuda gubernamental sin fricciones podría estar a sólo unos años de distancia.

Sin embargo, los expertos en inteligencia artificial y seguridad dijeron a Business Insider que existen obstáculos legales y técnicos para cualquier empresa que quiera asumir la tarea de automatizar los sistemas de beneficios y bienestar con inteligencia artificial.

Checkr utiliza principalmente inteligencia artificial para realizar verificaciones de antecedentes y obtener información superficial, como antecedentes penales e informes de vehículos motorizados. La compañía tiene importantes contratos con Uber y Lyft para seleccionar nuevos conductores y está valorada en más de 5.700 millones de dólares después de recaudar 120 millones de dólares en financiación en 2022. En 2025, Checkr reportó ingresos de más de 800 millones de dólares y superó los 120.000 clientes.

Cuando se le preguntó qué quiere Checkr que hacer por el gobierno, Yanisse dijo que en el caso de Medicare y otros programas, «hay mucho fraude y son simplemente los malos actores los que reciben el dinero del gobierno en lugar de las personas buenas que necesitan ayuda», y agregó que es muy difícil para el gobierno verificar realmente la situación laboral y los ingresos de las personas.

El programa de pago por servicio de Medicare estima que hubo 28.830 millones de dólares en “pagos indebidos” en 2025, a una tasa del 6,55%, aunque no todos estos casos fueron resultado de fraude intencional. Lihat juga edc4. Medicaid también considera inadecuados los pagos realizados a personas que no han presentado documentación suficiente y cuyos niveles de ingresos no han sido verificados.

“Desafortunadamente, con la IA habrá aún más fraudes, robos de identidad y estafas”, afirmó Yanisse. «Hay mucha fricción, mucha repetición y ahora también hay deepfakes».

El portavoz de Checkr dijo a Business Insider que la posible participación de la empresa en el gobierno «aún es conceptual en este momento».

La compañía también señaló un estudio de Middesk, una plataforma de verificación de identidad empresarial, que encontró que de 1,09 billones de dólares en pagos de Medicaid realizados a aproximadamente 1,6 millones de proveedores entre 2018 y 2024, 563 millones de dólares en pagos se realizaron a proveedores incluidos en la lista negra de programas de salud federales por actividad criminal o mala conducta.

Automatizar la verificación de identidad puede ser difícil

Stuart Russell, profesor de informática de la UC Berkeley y pionero de la IA, dijo a Business Insider que «no es optimista» en cuanto a que el plan de utilizar la IA para determinar la elegibilidad para los beneficios funcione como se anuncia.

«Un sistema de inteligencia artificial de este tipo, una versión de un LLM, es incapaz de producir explicaciones veraces de sus decisiones, lo que hace imposible cuestionar decisiones falsas», dijo Russell.

Russell también citó el Reglamento General de Protección de Datos de la Unión Europea, que prohíbe que decisiones con efectos legales significativos para las personas sean tomadas enteramente por sistemas automatizados.

Baobao Zhang, profesora asociada de política de IA del Maxwell Dean de la Universidad de Syracuse, dijo a Business Insider que si bien no puede evaluar exactamente la calidad actual del sistema de verificación de Checkr, los intentos anteriores del gobierno de combinar los beneficios para los ciudadanos con un sistema automatizado son señales de advertencia.

«Si el gobierno federal u otros gobiernos estatales intentan contratar a un proveedor para automatizar la detección de fraudes en la asistencia social, deben realizar una evaluación seria en el mundo real antes de implementarlo, porque hay mucho en juego, como lo ha demostrado la historia», dijo Zhang.

En Indiana, un intento de racionalizar y automatizar su sistema de elegibilidad para la asistencia social subcontratando un contrato a IBM terminó en una batalla legal en la que el estado demandó a la empresa por 1.300 millones de dólares por el proyecto abandonado en 2010. Con base en registros judiciales, la Administración de Servicios Humanos y Familiares de Indiana dijo que los errores de procesamiento por parte de IBM condujeron a denegaciones erróneas de beneficios que causaron daños según era necesario.

En Australia, un programa gubernamental automatizado llamado Robodebt, diseñado para detectar fraudes, pidió a los beneficiarios de asistencia social que reembolsaran sus beneficios y envió cartas afirmando que tenían una deuda de miles de dólares, basándose en un algoritmo incorrecto. Una comisión real, la forma más alta de investigación pública de Australia, descubrió que al menos tres personas se quitaron la vida después de que se les pidiera falsamente que pagaran una deuda que no tenían con Robodebt. El sistema fue declarado ilegal por un tribunal en 2019.

Ifeoma Ajunwa, director fundador del programa IA y el futuro del trabajo de la Universidad de Emory, dijo a Business Insider que si una agencia gubernamental adoptara la IA, debería haber un consejo asesor formado por tecnólogos y científicos sociales, y los distritos afectados deberían tener voz y voto.

«Creo que debemos proceder con cautela al delegar funciones gubernamentales a tecnologías de inteligencia artificial», dijo Ajunwa. «Si bien estas herramientas están destinadas a aumentar la eficiencia y reducir los costos, también necesitamos establecer salvaguardias para su uso para proteger a los ciudadanos».

Una startup de SF AI centrada en la verificación de identidad se ha fijado un objetivo ambicioso: conseguir contratos gubernamentales.

Daniel Yanisse, director ejecutivo de Checkr, dijo a Business Insider que la compañía quiere ayudar al gobierno a reducir el «fraude y el despilfarro» no sólo examinando a los nuevos empleados, sino también verificando la elegibilidad de las personas para beneficios como Medicare y la Seguridad Social.

Aunque Yanisse dijo que la compañía aún no está lista para hacer anuncios de productos, dijo que un sistema de ayuda gubernamental sin fricciones podría estar a sólo unos años de distancia.

Sin embargo, los expertos en inteligencia artificial y seguridad dijeron a Business Insider que existen obstáculos legales y técnicos para cualquier empresa que quiera asumir la tarea de automatizar los sistemas de beneficios y bienestar con inteligencia artificial.

Checkr utiliza principalmente inteligencia artificial para realizar verificaciones de antecedentes y obtener información superficial, como antecedentes penales e informes de vehículos motorizados. La compañía tiene importantes contratos con Uber y Lyft para seleccionar nuevos conductores y está valorada en más de 5.700 millones de dólares después de recaudar 120 millones de dólares en financiación en 2022. En 2025, Checkr reportó ingresos de más de 800 millones de dólares y superó los 120.000 clientes.

Cuando se le preguntó qué quiere Checkr que hacer por el gobierno, Yanisse dijo que en el caso de Medicare y otros programas, «hay mucho fraude y son simplemente los malos actores los que reciben el dinero del gobierno en lugar de las personas buenas que necesitan ayuda», y agregó que es muy difícil para el gobierno verificar realmente la situación laboral y los ingresos de las personas.

El programa de pago por servicio de Medicare estima que hubo 28.830 millones de dólares en “pagos indebidos” en 2025, a una tasa del 6,55%, aunque no todos estos casos fueron resultado de fraude intencional. Lihat juga edc4. Medicaid también considera inadecuados los pagos realizados a personas que no han presentado documentación suficiente y cuyos niveles de ingresos no han sido verificados.

“Desafortunadamente, con la IA habrá aún más fraudes, robos de identidad y estafas”, afirmó Yanisse. «Hay mucha fricción, mucha repetición y ahora también hay deepfakes».

El portavoz de Checkr dijo a Business Insider que la posible participación de la empresa en el gobierno «aún es conceptual en este momento».

La compañía también señaló un estudio de Middesk, una plataforma de verificación de identidad empresarial, que encontró que de 1,09 billones de dólares en pagos de Medicaid realizados a aproximadamente 1,6 millones de proveedores entre 2018 y 2024, 563 millones de dólares en pagos se realizaron a proveedores incluidos en la lista negra de programas de salud federales por actividad criminal o mala conducta.

Automatizar la verificación de identidad puede ser difícil

Stuart Russell, profesor de informática de la UC Berkeley y pionero de la IA, dijo a Business Insider que «no es optimista» en cuanto a que el plan de utilizar la IA para determinar la elegibilidad para los beneficios funcione como se anuncia.

«Un sistema de inteligencia artificial de este tipo, una versión de un LLM, es incapaz de producir explicaciones veraces de sus decisiones, lo que hace imposible cuestionar decisiones falsas», dijo Russell.

Russell también citó el Reglamento General de Protección de Datos de la Unión Europea, que prohíbe que decisiones con efectos legales significativos para las personas sean tomadas enteramente por sistemas automatizados.

Baobao Zhang, profesora asociada de política de IA del Maxwell Dean de la Universidad de Syracuse, dijo a Business Insider que si bien no puede evaluar exactamente la calidad actual del sistema de verificación de Checkr, los intentos anteriores del gobierno de combinar los beneficios para los ciudadanos con un sistema automatizado son señales de advertencia.

«Si el gobierno federal u otros gobiernos estatales intentan contratar a un proveedor para automatizar la detección de fraudes en la asistencia social, deben realizar una evaluación seria en el mundo real antes de implementarlo, porque hay mucho en juego, como lo ha demostrado la historia», dijo Zhang.

En Indiana, un intento de racionalizar y automatizar su sistema de elegibilidad para la asistencia social subcontratando un contrato a IBM terminó en una batalla legal en la que el estado demandó a la empresa por 1.300 millones de dólares por el proyecto abandonado en 2010. Con base en registros judiciales, la Administración de Servicios Humanos y Familiares de Indiana dijo que los errores de procesamiento por parte de IBM condujeron a denegaciones erróneas de beneficios que causaron daños según era necesario.

En Australia, un programa gubernamental automatizado llamado Robodebt, diseñado para detectar fraudes, pidió a los beneficiarios de asistencia social que reembolsaran sus beneficios y envió cartas afirmando que tenían una deuda de miles de dólares, basándose en un algoritmo incorrecto. Una comisión real, la forma más alta de investigación pública de Australia, descubrió que al menos tres personas se quitaron la vida después de que se les pidiera falsamente que pagaran una deuda que no tenían con Robodebt. El sistema fue declarado ilegal por un tribunal en 2019.

Ifeoma Ajunwa, director fundador del programa IA y el futuro del trabajo de la Universidad de Emory, dijo a Business Insider que si una agencia gubernamental adoptara la IA, debería haber un consejo asesor formado por tecnólogos y científicos sociales, y los distritos afectados deberían tener voz y voto.

«Creo que debemos proceder con cautela al delegar funciones gubernamentales a tecnologías de inteligencia artificial», dijo Ajunwa. «Si bien estas herramientas están destinadas a aumentar la eficiencia y reducir los costos, también necesitamos establecer salvaguardias para su uso para proteger a los ciudadanos».

💡 Puntos Clave

  • Este artículo cubre aspectos importantes sobre AI,Tech,artificial-intelligence,law-gov-t-and-politics,legal-issues,health-care,technology,government,fraud,san-francisco,employment
  • Información verificada y traducida de fuente confiable
  • Contenido actualizado y relevante para nuestra audiencia

📚 Información de la Fuente

📰 Publicación: www.businessinsider.com
✍️ Autor: Katherine Li
📅 Fecha Original: 2026-02-25 11:21:00
🔗 Enlace: Ver artículo original

Nota de transparencia: Este artículo ha sido traducido y adaptado del inglés al español para facilitar su comprensión. El contenido se mantiene fiel a la fuente original, disponible en el enlace proporcionado arriba.

📬 ¿Te gustó este artículo?

Tu opinión es importante para nosotros. Comparte tus comentarios o suscríbete para recibir más contenido histórico de calidad.

💬 Dejar un comentario