
Claude AI cambia las reglas: entrenará sus modelos con datos de usuarios salvo que se opte por excluirse
La inteligencia artificial ha cambiado nuestra forma de trabajar, comunicarnos y hasta de aprender. Pero detrás de cada avance tecnológico late un debate cada vez más candente: ¿qué ocurre con los datos de los usuarios?. Ahora es Anthropic, la empresa creadora de Claude AI, quien se encuentra en el centro de la polémica tras anunciar un cambio en sus políticas de privacidad y términos de servicio. A partir del 28 de septiembre de 2025, todas las conversaciones con Claude podrán ser utilizadas para entrenar sus modelos de IA. Y lo serán por defecto, salvo que los usuarios desactiven manualmente la opción en los ajustes de privacidad. De la promesa de privacidad al giro de estrategia Hasta ahora, Anthropic se había