Hace unos meses, Apple dio la bienvenida al taller sobre el aprendizaje automático que preserva la confidencialidad, que presentó presentaciones y discusiones sobre confidencialidad, seguridad y otras áreas clave en el desarrollo del aprendizaje automático responsable. Ahora ha hecho presentaciones públicas. Aquí hay tres fortalezas.
Como lo hizo recientemente con las presentaciones del taller 2024 sobre aprendizaje automático centrado en humanos, Apple Apple Publicado una publicación En su blog de investigación sobre aprendizaje automático con algunos videos y una larga lista de estudios y artículos que se presentaron durante el evento híbrido de dos días celebrado del 20 al 21 de marzo de 2025.
Nota rápida sobre confidencialidad diferencial
Curiosamente, la mayoría (de lo contrario todos) los artículos se relacionan con la confidencialidad diferencial, que ha sido el método favorito de Apple durante unos años para proteger los datos de los usuarios cuando se procesan con servidores (a pesar de ciertas críticas).
Muy Básicamente, la confidencialidad diferencial agrega ruido a los datos del usuario antes de descargarlos, lo que tiene como objetivo hacer que sea imposible rastrear los datos reales a un individuo, en caso de que los datos se intercepten o analicen.
Así es como Apple supervisar::
La tecnología de confidencialidad diferente utilizada por Apple se basa en la idea de que el ruido estadístico ligeramente sesgado puede ocultar los datos individuales de un usuario antes de ser compartido con Apple. Si muchas personas envían los mismos datos, el ruido que se ha agregado puede realizar una operación en una gran cantidad de puntos de datos y Apple puede ver que surja información significativa.
Tres estudios de Apple presentaron el evento
1: Pan-Privacy Local para el análisis federado, presentado por Guy Rothblum (Apple)
Este estudio fue publicado el 14 de marzo, construyendo sobre otro estudio de 2010. Rothblum coescribió ambos.
Si bien el estudio de 2010 estudió una forma de mantener información privada, incluso si un sistema de análisis o servidor se ha visto comprometido, este nuevo estudio aplica esta idea a los dispositivos personales.
En una palabra, el estudio muestra que en un dispositivo que es poco accesible varias veces (como en una computadora compartida comprometida), es casi imposible recopilar datos de uso sin dejar la puerta abierta al riesgo de confidencialidad. Los investigadores ofrecen nuevos métodos cifrados que permiten a las empresas reunir siempre estadísticas útiles, pero de una manera que mantenga una actividad individual completamente oculta.
2: Investigación privada evolutiva con Wally, Presentado por Rehan Rishi y Haris Mughees (Apple)
Esta es una presentación muy interesante que explora cómo Apple mantiene la confidencialidad al tiempo que reduce los costos con respecto a la investigación cuantificada a gran escala.
Por ejemplo, cuando el usuario toma una foto de un punto de referencia, Apple trata con esta foto para identificar este punto de referencia. Esto requiere de ida y vuelta con los servidores de Apple, que podrían presentar implicaciones de confidencialidad.
El documento explica un método llamado Wally, que esencialmente utiliza la confidencialidad diferencial (por lo que envía la solicitud real, rodeada de datos falsos), pero está estructurado de una manera que más personas cuestionan el servidor en la misma ventana, la cantidad de ruido falso que cada persona necesita enviar de manera considerable.
Esto significa que Apple puede mantener las solicitudes privadas, mientras evoluciona a millones de usuarios sin explotar el ancho de banda o los costos de cálculo.
3: Datos sintéticos privados diferencialmente a través de las API del modelo de base, Presentado por Sivakanth Gopi (Microsoft Research)
Fue uno de los dos artículos presentados por investigadores de Microsoft. Aunque trata con imágenes, el segundo artículo trata con texto. Pero lo esencial es lo mismo.
Las empresas de IA necesitan buenos datos para capacitar a sus modelos. A veces, los datos «reales» correctos son simplemente datos regulares del usuario, y deben mantenerse privados.
Los dos estudios exploran cómo generar datos sintéticos de alta calidad que preservan los datos del usuario del usuario del mundo real, pero sin exponer nada realmente privado.
Básicamente, introducen un método llamado Evolución Privada (PE) que guía los modelos API Foundation solo para generar versiones sintéticas de conjuntos de datos privados similares a los datos reales, pero sin la necesidad de modelar o acceso interno. El EP puede corresponder o incluso superar los enfoques avanzados que se basan en el modelo del modelo de modelo directo, pero a una fracción del costo de confidencialidad.
Lista de estudios completos
Además de los videos Star, Apple también publicó enlaces a los 25 estudios presentados en el evento. Aquí está la lista completa, que incluye estudios de investigadores de Apple, así como compañías como Microsoft y Google, y instituciones como MIT, Rutgers, la Universidad de Boston, Carnegie Melon y la Universidad de California en Berkeley:
Ofertas de Mac limitadas en Amazon
- Mac Mini (M4) 16 GB / 256 GB:: $ 499 (17% de reducción)
- Pantalla de estudio, vidrio de nano-textura, adaptador de montura VESA: $ 1,649 (13% de descuento)
- MacBook Air, 15 pulgadas, M4, 16 GB / 256 GB:: $ 999 (era $ 1,199)
- MacBook Pro, 14 pulgadas, M4, 16 GB / 512 GB:: $ 1,299 (19% de reducción)