Claude AI empezará a usar tus datos: guía para rechazarlo antes del plazo final
Ante la inminente utilización de datos personales por parte de Claude AI, muchos usuarios buscan información clara sobre los pasos necesarios para rechazar esta medida antes del plazo establecido y así proteger su privacidad en línea.
Tl;dr
Nueva política de datos en Anthropic: el usuario, ante una elección clave
Un giro inesperado acaba de producirse en la gestión de la privacidad por parte de Anthropic, responsable del popular asistente de inteligencia artificial Claude. Desde hoy, cualquier persona que utilice este servicio deberá enfrentarse a una pregunta fundamental: ¿permitirá o no que sus conversaciones sean utilizadas para entrenar futuros modelos? La compañía ha optado por modificar su política y la decisión, lejos de ser anecdótica, repercutirá en millones de usuarios.
Cambio radical: del borrado automático al almacenamiento prolongado
Hasta hace apenas unos días, las interacciones con Claude se eliminaban de manera automática tras treinta días, con la excepción de los casos exigidos por ley. Ahora bien, con la nueva normativa, cualquier diálogo o código compartido —salvo indicación expresa en contra— podrá ser almacenado hasta cinco años. Este cambio afecta a todas las modalidades individuales: tanto quienes disfrutan del plan Free como los suscriptores Pro y Max e incluso quienes utilizan el servicio Claude Code. Solo quedan fuera de esta recolección extendida los clientes corporativos, organismos públicos, centros educativos y quienes acceden mediante API.
Un consentimiento forzado: aceptar o quedarse sin acceso
La implementación será paulatina: al iniciar sesión aparecerá un aviso titulado «Updates to Consumer Terms and Policies», donde el usuario tendrá dos opciones claras. Por un lado, hacer clic en «Aceptar» y consentir así la recopilación; por otro, localizar un pequeño interruptor para rechazarla. No tomar ninguna decisión antes del 28 de septiembre de 2025 supondrá la suspensión inmediata del acceso a Claude. Conviene recalcar que solo se utilizarán los datos generados a partir del momento en que entre en vigor la política; además, eliminar una conversación seguirá evitando que se use para entrenamiento. Sin embargo, una vez que las interacciones alimenten el modelo, ya no será posible retirarlas posteriormente.
Nuevos retos para la confianza y la seguridad
Varios elementos explican esta decisión:
No obstante, abandonar el principio del «privacy by default» representa una carga añadida para quien utilice este asistente con asuntos delicados. Habrá quien lo acepte sin reservas; otros pueden ver aquí una señal preocupante sobre el futuro de su privacidad digital.