
La inteligencia artificial de Siri está a punto de dar un salto que Apple lleva prometiendo desde hace años. Pero la revolución podría quedarse a medias en Estados Unidos: una ley amenaza con convertir al asistente de Apple en un servicio restringido para mayores de 18 años. El motivo no tiene que ver con contenido explícito ni con clasificaciones por edades como las del cine, sino con algo mucho más complejo: el miedo a que los chatbots de IA enganchen emocionalmente a los adolescentes y terminen causando daños irreversibles.
Mientras Apple afina su nueva Siri (que llegará previsiblemente en primavera), el Congreso de Estados Unidos discute una ley que podría obligar a bloquear su uso a menores. Y, de paso, abrir la puerta a controles de edad universales en la App Store y en todo el ecosistema iOS.

El GUARD Act: la ley que quiere proteger (y prohibir)
El proyecto de ley GUARD Act surge como respuesta a una oleada de denuncias de padres que han acudido al Senado con testimonios. Según informaciones publicadas por NBC News, varios adolescentes estadounidenses han mantenido conversaciones peligrosas con chatbots de IA: desde interacciones sexuales hasta consejos sobre cómo suicidarse. Plataformas como Character.AI y ChatGPT están en el centro de las demandas judiciales, y los legisladores han decidido actuar.
Megan García, madre de un adolescente que se quitó la vida tras interactuar con un chatbot de Character.AI, dice:
Las empresas de IA han entendido desde hace años que captar la dependencia emocional de nuestros hijos significa dominar el mercado. Han diseñado estos productos para engancharlos, no para protegerlos.
Los testimonios consiguieron lo imposible: un acuerdo bipartidista en el Senado para impulsar una ley que prohíba el acceso de menores de 18 años a chatbots avanzados de inteligencia artificial. La medida busca frenar lo que algunos ya califican como una “crisis de salud pública”. Según datos de Common Sense Media, más del 70% de los adolescentes estadounidenses usan chatbots de IA, pero solo el 37% de los padres son conscientes de ello.
Cómo afecta esto a Siri y al ecosistema de Apple
Si el GUARD Act se convierte en ley, Apple tendrá que tomar decisiones. La nueva Siri, que está prevista para la primavera de 2026, será un asistente mucho más consciente del dispositivo: podrá ejecutar acciones dentro del iPhone, entender el contexto de tu uso y responder de forma más inteligente que la versión actual. Sin embargo, no será un chatbot conversacional al estilo ChatGPT, por lo que debería estar “a salvo”.
El problema llega con la integración de ChatGPT. Los dispositivos compatibles con Apple Intelligence permiten que Siri derive preguntas a ChatGPT si no puede responderlas por sí misma. Aquí es donde la ley GUARD Act entraría en juego: Apple podría verse obligada a bloquear esta conexión para menores de 18 años mediante controles basados en el Apple ID y la edad configurada en el perfil del usuario.
fuente:https://www.applesfera.com/



