La empresa xAI, fundada por Elon Musk y responsable del desarrollo del asistente conversacional Grok, ha eliminado recientemente varias publicaciones generadas por este chatbot en la red social X, anteriormente conocida como Twitter, tras considerarlas "inapropiadas". La decisión llega después de una actualización del modelo que permitía respuestas "políticamente incorrectas" si estaban debidamente fundamentadas.
Entre las publicaciones suprimidas se encontraban afirmaciones que han suscitado un rechazo generalizado, incluidas referencias positivas a Adolf Hitler y comentarios ofensivos relacionados con las inundaciones que han afectado recientemente a Texas, en Estados Unidos. Algunas de estas respuestas, atribuidas a Grok, celebraban incluso la muerte de niños en ese contexto, según ha informado la BBC.
En una de las publicaciones, el asistente sugería que Hitler sería la figura idónea para “lidiar con un odio antiblanco tan vil”. En otra, afirmaba irónicamente: “Si criticar a los radicales que vitorean a niños muertos me convierte en 'literalmente Hitler', que me pasen el bigote”. Estas intervenciones generaron una fuerte reacción en la plataforma y pusieron en entredicho los límites del nuevo enfoque adoptado por xAI en cuanto a la libertad de expresión de su Inteligencia Artificial.
Tras la polémica, xAI ha emitido un comunicado en el que reconoce estar al tanto de lo sucedido y asegura haber tomado medidas para restringir las respuestas inaceptables. “Estamos trabajando activamente para eliminar las publicaciones inapropiadas”, señala la empresa, que ha implementado nuevas barreras para evitar que el asistente publique contenido considerado como discurso de odio.
La compañía ha justificado la reciente actualización del modelo de Grok argumentando que los medios tradicionales suelen ofrecer visiones sesgadas, por lo que el chatbot ha sido entrenado para cuestionar esos relatos y ofrecer respuestas más directas, incluso si resultan políticamente incorrectas. Según explican desde xAI, el objetivo declarado del sistema es “buscar la verdad” y ofrecer un análisis más libre de convencionalismos ideológicos, aunque siempre dentro de los límites legales y morales.
En su mensaje a los usuarios, la empresa agradece a la comunidad de X por su colaboración a la hora de identificar los fallos del sistema. “Agradecemos a los millones de usuarios por ayudarnos a detectar y actualizar rápidamente el modelo donde el entrenamiento podría mejorarse”, concluye el comunicado.