Mordida de seguridad: tenga cuidado con los clones incompletos de ChatGPT que regresan a las listas de App Store


9to5Mac Security Bite presentado exclusivamente por Mosyle, la única plataforma unificada de Apple. Hacer que los dispositivos Apple estén listos para funcionar y sean seguros para la empresa es todo lo que hacemos. Nuestro exclusivo enfoque integrado de gestión y seguridad combina soluciones de seguridad específicas de Apple líderes en la industria para un refuerzo y cumplimiento totalmente automatizados, EDR de próxima generación, Zero Trust impulsado por IA y gestión de privilegios patentados con el MDM de Apple más potente y moderno del mercado. El resultado es una plataforma unificada de Apple totalmente automatizada, utilizada actualmente por más de 45.000 organizaciones para preparar millones de dispositivos Apple para funcionar sin esfuerzo y de forma asequible. Solicita tu PRUEBA EXTENDIDA hoy y comprende por qué Mosyle es todo lo que necesitas para trabajar con Apple.


Hace dos años, por esta época, la increíblemente popular API GPT-4 de OpenAI se estaba extendiendo como la pólvora por la App Store. No pasó mucho tiempo para que las aplicaciones de productividad impulsadas por IA, los compañeros de chatbot, los rastreadores de nutrición y prácticamente cualquier otra cosa que se te ocurra dominaran las listas, acumulando millones de descargas. Un avance rápido hasta el día de hoy, muchas de estas aplicaciones oportunistas y codificadas por estados de ánimo han desaparecido, en parte debido a la publicidad, pero también La postura más dura de Apple contra falsificaciones y aplicaciones engañosas.

Sin embargo, esta semana, El investigador de seguridad Alex Kleber se dio cuenta que un engañoso chatbot de IA, haciéndose pasar por la marca OpenAI, logró obtener las mejores calificaciones en la categoría Empresas. Aunque en la Mac App Store, menos popular, esto sigue siendo importante y justifica una advertencia de PSA al compartir información personal con estas aplicaciones.

La aplicación comercial número uno «AI ChatBot” en macOS parece imitar la marca OpenAI, desde su logotipo y nombre hasta su diseño y lógica. La investigación muestra que fue creada por el mismo desarrollador que otra aplicación casi idéntica. Los dos comparten nombres coincidentes, interfaces y capturas de pantalla idénticas, e incluso el mismo sitio web de soporte que conduce a una página gratuita de Google. También aparecen en la misma cuenta de desarrollador y dirección de empresa ubicada en Pakistán.

A pesar de que Apple eliminó la mayoría de las aplicaciones imitadoras de OpenAI, estas dos aplicaciones han escapado al escrutinio y ahora se encuentran entre las principales descargas en la Mac App Store de EE. UU.

No hace falta decir que las reseñas, clasificaciones o incluso la aprobación de una aplicación en la tienda no necesariamente garantizan la seguridad de la privacidad de los datos.

Clonar Sketchy GPT en la Mac App Store de EE. UU. – 9to5Mac

A informe reciente publicado por Private Internet Access (PIA) encontró ejemplos preocupantes de poca transparencia en muchas de estas aplicaciones de productividad personal. Un popular asistente de inteligencia artificial que utilizaba la API ChatGPT recopiló silenciosamente muchos más datos de usuario de los que afirmaba la descripción de la App Store. La lista dice que solo recopila mensajes e ID de dispositivos para mejorar la funcionalidad y administrar cuentas. Su política de privacidad muestra que también recopila nombres, correos electrónicos, estadísticas de uso e información del dispositivo, que a menudo termina vendiéndose a intermediarios de datos o utilizándose con fines nefastos.

Cualquier aplicación de clonación de GPT que recopile entradas de usuarios vinculadas a nombres reales es una receta para el desastre. Imagine un enorme conjunto de conversaciones donde cada mensaje está vinculado a la persona que lo dijo, ubicado en una base de datos incompleta administrada por una empresa fantasma con una política de privacidad generada por IA que no se sostiene en el país donde reside. Esto está sucediendo en algún lugar ahora mismo.

Se podría suponer que es por eso que la App Store tiene etiquetas de privacidad. Si bien Apple las introdujo para ayudar a los usuarios a comprender qué datos recopila una aplicación y cómo los usa, los desarrolladores informan sobre estas etiquetas. Apple confía en su honestidad. Los desarrolladores pueden estirar la verdad y Apple no tiene ningún sistema para verificarla.

Creo que es importante seguir haciendo correr la voz de que estas aplicaciones todavía existen, recopilando quién sabe qué información y datos de usuarios desprevenidos. Sin duda, esto plantea enormes riesgos para la privacidad. ¡Corre la voz!

FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.



Fuente