
La empresa tecnológica xAI, propiedad de Elon Musk, presentó a fines de octubre Grokipedia, una enciclopedia web generada con inteligencia artificial que busca posicionarse como alternativa a Wikipedia bajo la premisa de ofrecer información “libre de sesgos”. Sin embargo, especialistas e investigaciones consultadas por EFE advierten que el proyecto presenta falta de transparencia y posibles sesgos difíciles de rastrear.
El lanzamiento ocurrió tras años en que Musk ha criticado públicamente a Wikipedia, acusándola de ser “propaganda de los medios tradicionales” y de mantener un sesgo político hacia la izquierda. El magnate incluso la ha denominado “Wokepedia” o “Dickipedia”.
Actualmente disponible solo en inglés, Grokipedia cuenta con cerca de 855 mil artículos. Musk indicó que el proyecto adoptará el nombre de “Enciclopedia Galáctica” cuando alcance un nivel más ambicioso, aludiendo a la obra “Fundación”, de Isaac Asimov. Según explicó en X, su red social, el objetivo es crear un “repositorio masivo de conocimiento” que incluso sería distribuido por el Sistema Solar para preservarlo ante eventuales catástrofes que afecten a la humanidad.
La información de la plataforma es generada por Grok, el modelo lingüístico de xAI, que procesó alrededor de un millón de las entradas más populares de Wikipedia para luego modificarlas y complementarlas con datos disponibles públicamente en internet. A diferencia del modelo colaborativo de Wikipedia, los usuarios de Grokipedia no editan directamente: solo pueden sugerir correcciones, las cuales son revisadas internamente por la plataforma. Cada entrada cuenta con un historial donde se registran las sugerencias y las respuestas, ya sea aprobándolas o justificando su rechazo.
No obstante, analistas advierten que no existe documentación pública sobre el funcionamiento del modelo, los criterios editoriales o el proceso de revisión de cambios. Esto, según especialistas, genera un entorno difícil de auditar y sin mecanismos claros de rendición de cuentas.
Investigaciones académicas señalan que, aunque Grokipedia aparenta neutralidad al no contar con editores humanos, su lógica generativa es opaca. Taha Yasseri, académico que comparó miles de artículos de ambas enciclopedias, afirma que la autoría automatizada oculta sesgos presentes en el modelo, a diferencia de Wikipedia, donde las discusiones y ediciones son visibles y permiten corregir desacuerdos.
Carlos Cortés, director de Linterna Verde, advierte que Grokipedia se presenta como una herramienta objetiva, pese a que sigue dependiendo de la visión de quienes supervisan los datos que alimentan al modelo. Asimismo, sostiene que es un error considerar que una enciclopedia generada por IA puede sustituir insumos para la discusión pública.
Si bien ambas plataformas presentan una notable similitud en estilo y significado, divergen en el tratamiento de temas sensibles. Investigadores de la Universidad de Cornell detectaron que los artículos sobre funcionarios electos y asuntos polémicos difieren de manera más marcada entre Wikipedia y Grokipedia. Uno de los ejemplos más citados es el caso de George Floyd: mientras Wikipedia lo describe como un hombre afroamericano asesinado por un policía, Grokipedia se centra en su historial delictivo previo.
El estudio también reveló que Grokipedia ha utilizado como fuentes sitios de conspiración y páginas asociadas a ideologías extremistas, como Infowars, Stormfront, LifeSiteNews, Global Research y VoltaireNet, lo que contrasta con las políticas de verificación de Wikipedia.
A pesar de que todas sus entradas aparecen con la etiqueta “Verificado por Grok”, la plataforma ha mostrado limitaciones en su capacidad de verificar información y mantiene una alta tasa de errores en respuestas dentro de la red social X, según ha documentado EFE Verifica.
