Hoy, Apple ha publicado en su blog de búsqueda sobre aprendizaje automático, ciertas grabaciones de su 2024 Atelier en aprendizaje automático centrado en humanos (HCML), destacando su trabajo en el desarrollo responsable de la IA.
Casi 3 horas de contenido disponible
EL eventoOrganizado originalmente en agosto de 2024, reunió a los investigadores de Apple y a los expertos universitarios, y exploró todo, la interpretabilidad del modelo de accesibilidad y las estrategias para predecir y prevenir resultados negativos a gran escala debido a la evolución de la IA.
Aquí está la lista completa de videos Con plomo:
- «Ingeniería mejor UIS a través de la colaboración con modelos de Foundation Awakened», de Kevin Moran (Universidad de Florida Central)
- «Comprender la interfaz de usuario», de Jeff Nichols (Apple)
- «AI Interfaces Resilient», de Elena Glassman (Universidad de Harvard)
- «Pequeño pero poderoso: la investigación centrada en el hombre para apoyar un ML efectivo en los dispositivos», de Mary Beth Kery (Apple)
- «Tecnología del habla para personas con discapacidades del habla», de Colin Lea y Dianna Yee (Apple)
- «Accesibilidad de IA en AI», por John Froehlich (Universidad de Washington)
- «Personalización de gestos a mano a mano de una sola demostración», por Cori Park (Apple)
- «Creación de súper temas: aumento en la percepción de la audición humana con IA», por Shyam Gollakota (Universidad de Washington)
Apple duplica el desarrollo de la IA responsable
Aunque el evento ocurrió hace casi un año, las conversaciones aún son muy perspicaces, porque se centran principalmente en aspectos humanos y responsables del desarrollo del aprendizaje automático, en lugar de en la tecnología fronteriza en sí.
En la publicación del blog, Apple también enfatiza el desarrollo responsable de la IA, que incluye un Conjunto de principios que guía el desarrollo de sus herramientas de IA:
- Autorizar a los usuarios con herramientas inteligentes: identificamos áreas donde la IA puede ser responsable de crear herramientas para satisfacer las necesidades específicas de los usuarios. Respetamos la forma en que nuestros usuarios eligen usar estas herramientas para lograr sus objetivos.
- Representa a nuestros usuarios: construimos productos profundamente personales para representar a los usuarios de todo el mundo. Trabajamos continuamente para evitar perpetuar estereotipos y sesgos sistémicos en nuestras herramientas y modelos de IA.
- Diseño de atención: tomamos precauciones en cada etapa de nuestro proceso, en particular el diseño, la capacitación de los modelos, el desarrollo de funcionalidades y la evaluación de calidad para identificar cómo nuestras herramientas de IA pueden usarse para desagradables o causar daños potenciales. Vamos a mejorar de manera continua y proactiva nuestras herramientas de IA utilizando comentarios de los usuarios.
- Proteger la confidencialidad: protegemos la confidencialidad de nuestros usuarios con un poderoso tratamiento en dispositivos y una infraestructura revolucionaria como el cálculo de la nube privada. No utilizamos datos personales privados o interacciones de usuario de nuestros usuarios al capacitar a nuestros modelos de base.
¿Trabaja con el desarrollo del aprendizaje automático? ¿Con qué frecuencia es el desarrollo responsable la parte principal de la conversación? Háganos saber en los comentarios.