¿Claude y sus conversaciones alimentan la inteligencia artificial de Anthropic?
Claude Shannon, el padre de la teoría de la información, ha sido recordado recientemente por su influencia en el desarrollo de la inteligencia artificial (IA). La pregunta que surge es si las conversaciones de Claude están siendo utilizadas por la empresa Anthropic para mejorar su IA.
Tl;dr
Nouvelle politique d’Anthropic
Anthropic, la empresa detrás del chatbot Claude, ahora obliga a los usuarios a decidir si desean compartir sus conversaciones para mejorar futuros modelos de inteligencia artificial. Se implementará la pérdida de acceso al servicio después del 28 de septiembre de 2025 si no se da respuesta.
De la privacidad automática a la recolección por defecto
Anteriormente, se eliminaban las conversaciones y códigos automáticamente después de treinta días. Ahora, los datos pueden conservarse hasta cinco años para mejorar la IA. Los paquetes Free, Pro y Max de Claude se ven afectados, excluyendo a usuarios profesionales.
Implementación y opciones
Al registrarse, los nuevos usuarios deben elegir entre compartir o mantener la privacidad. Para los usuarios existentes, se presenta una ventana emergente con las mismas opciones. Aquellos que deseen controlar sus datos pueden hacerlo mediante los ajustes de privacidad.
- Solo se aplicará a futuras conversaciones, no a las anteriores.
- Los chats eliminados no se utilizarán para entrenar el modelo.
- Es posible cambiar la configuración de privacidad en cualquier momento.
Beneficios y preocupaciones
Anthropic asegura que esta actualización mejorará las capacidades de Claude sin vender datos a terceros y filtrando información sensible. Sin embargo, la responsabilidad recae ahora en los usuarios, lo que plantea dilemas entre progreso tecnológico y protección de la privacidad.