Grammarly elimina reseñas de IA asignadas a autores reales

Grammarly / PR-ADN
La plataforma Grammarly ha decidido retirar temporalmente su función que generaba reseñas mediante inteligencia artificial, atribuyéndolas a autores reales, en medio de crecientes cuestionamientos sobre la transparencia y autenticidad de este tipo de contenido digital.
Tl;dr
- Grammarly usó nombres de expertos sin permiso.
- La función Expert Review fue suspendida tras críticas.
- Surgen dudas éticas sobre IA y uso de identidades.
Controversia por el uso de identidades en Grammarly
A mediados del verano, una decisión tomada por Superhuman sacudió el ecosistema de asistentes de redacción. La empresa integró en su popular herramienta Grammarly la función Expert Review, una novedad que permitía a los usuarios recibir análisis generados por inteligencia artificial, supuestamente firmados por figuras reconocidas: desde científicos y autores de renombre hasta especialistas en tecnología. Lo que prometía ser un salto cualitativo para la experiencia del usuario terminó derivando en un debate inesperado sobre los límites de la inteligencia artificial y el respeto a las identidades personales.
Nombres célebres sin consentimiento previo
La funcionalidad seleccionaba automáticamente la “firma” del experto según el tema del texto, sin notificar ni solicitar autorización previa a las personas aludidas, muchas de ellas aún vivas. Esto llevó a que obras literarias, ensayos o artículos científicos aparecieran con firmas ilustres al pie del texto revisado. Un pequeño aviso aclaraba que esas menciones eran “informativas” y no implicaban vinculación real con los expertos. Sin embargo, este matiz legal no resultó suficiente para calmar la inquietud generada.
Colección de datos polémica y reacción pública
Detrás de la innovación se escondía un procedimiento poco transparente: los perfiles se reconstruían mediante información “públicamente disponible” capturada por sistemas automatizados —conocidos como crawlers— alimentados por LLM externos. Varios elementos explican esta decisión:
- Aumentar la relevancia aparente de las sugerencias ofrecidas.
- Aprovechar personalidades reconocidas para ganar credibilidad.
- Simplificar la interacción entre usuario e IA.
Pero no tardaron en llegar las críticas. Numerosos autores manifestaron públicamente su descontento ante lo que percibían como una apropiación indebida de su identidad digital, poniendo sobre la mesa tanto cuestiones legales como éticas.
Pausa obligada e interrogantes abiertos
Ante la presión mediática y la protesta continuada, el director ejecutivo de Superhuman, Shishir Mehrotra, comunicó en LinkedIn la suspensión inmediata de Expert Review y anunció una revisión a fondo del sistema. Si bien defendió su iniciativa como un intento de enriquecer los textos con “perspectivas influyentes”, persisten dudas acerca de los límites jurídicos y morales en torno al uso automatizado de nombres ajenos en plena era de la IA generativa. El caso reabre así el debate sobre dónde trazar fronteras en la integración ética entre humanos y máquinas.