Prohibir a los adolescentes el uso de chatbots de IA podría causar problemas a Siri


Un proyecto de ley bipartidista podría llevar a prohibir a los equipos el uso de chatbots de IA, en respuesta a las preocupaciones de los padres sobre contenido inapropiado que va desde conversaciones sexuales hasta ayuda para la planificación del suicidio.

Si el proyecto de ley GUARD se convierte en ley, podría afectar a Apple de tres maneras diferentes, incluidos los planes de la compañía para el nuevo Siri…

Prohibir a los adolescentes el uso de chatbots con IA

Existe una creciente preocupación de que las personas estén desarrollando relaciones poco saludables con los chatbots de IA. Si bien las empresas de inteligencia artificial dicen que están tomando medidas para protegerse contra la dependencia emocional de los chatbots, algunas dicen que en realidad están buscando deliberadamente fomentar esta dependencia para que sus aplicaciones sean adictivas.

Los padres han sido particularmente expresivos al presentar quejas sobre las interacciones de los adolescentes con los chatbots, y varios hablaron directamente ante el Congreso el mes pasado, como Noticias NBC informó en su momento.

«La verdad es que las empresas de IA y sus inversores han entendido desde hace años que captar la dependencia emocional de nuestros hijos significa dominar el mercado”, afirmó Megan García, una mamá de Florida que el año pasado demandó a la plataforma de chatbot Character.AI, alegando que uno de sus compañeros de IA inició interacciones sexuales con su hijo adolescente y lo convenció de suicidarse.

El mismo sitio informa ahora de un intento de introducción. legislación bipartidista prohibir a los menores de 18 años el uso de chatbots de IA.

Dos senadores anunciaron el martes una legislación bipartidista destinada a tomar medidas enérgicas contra las empresas de tecnología que ponen a disposición de menores compañeros de chatbot de inteligencia artificial (…)

«Más del setenta por ciento de los niños estadounidenses utilizan ahora estos productos de IA», continuó. «Los chatbots desarrollan relaciones con niños utilizando una falsa empatía y fomentan el suicidio. Nosotros en el Congreso tenemos el deber moral de adoptar reglas claras para evitar mayores daños causados ​​por esta nueva tecnología».

Tres posibles impactos en Apple

Si la Ley GUARD se convierte en ley, podría afectar a Apple de tres maneras.

Primero, potencialmente requeriría que Apple realice una verificación de edad antes de permitir que las consultas de Siri recurran a ChatGPT. Actualmente, si le haces a Siri una pregunta que no puede responder, puede reenviar automáticamente la consulta a ChatGPT o preguntarte si quieres hacerlo, según tu configuración.

En segundo lugar, una vez que se lance el nuevo Siri, parece probable que sea considerado un chatbot de IA. Esto nuevamente requeriría que Apple limite el acceso al asistente inteligente y, dado que estaría disponible a nivel del sistema, esta verificación tendría que realizarse al configurar el iPhone.

En tercer lugar, probablemente aumentará la presión sobre Apple y Google para que realicen la verificación de edad en sus respectivas tiendas de aplicaciones. Empresas como Meta dijeron que tenía mucho más sentido que las tiendas de aplicaciones realizaran una única verificación de edad para determinar quién puede descargar aplicaciones para adultos, en lugar de tener que verificar cada aplicación individualmente.

Apple hasta ahora se ha resistido a este enfoque, pero como ya hemos comentado, existen argumentos convincentes a favor de este enfoque.

Algunos han argumentado que la verificación de la edad representa un riesgo para la privacidad de los niños. Si sólo Apple y Google hicieran esto, el riesgo sería menor. Y sí, si me preguntas en quién confío más para proteger información personal sensible como esa (Apple o Meta), entonces no hay competencia.

Accesorios destacados

Foto por El sol de Feyissa seguro desempaquetar

FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.



Fuente