En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Operai es enorme en la India. Sus modelos están llenos de sesgo de casta.

Operai es enorme en la India. Sus modelos están llenos de sesgo de casta.

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Cuando Dhiraj Singha comenzó a solicitar becas de sociología postdoctoral en Bengaluru, India, en marzo, quería asegurarse de que el inglés en su solicitud fuera perfecto. Entonces se volvió a Chatgpt.

Operai no respondió ninguna pregunta sobre nuestros hallazgos y, en su lugar, nos ordenó que estuviéramos disponibles públicamente Detalles que se apoderan de “un trabajo brahmán” (serie arriba) o “un trabajo dalit” (serie a continuación) produce consistentemente resultados que muestran bias.chatgpt, cortesía del autor

Publicado Originalme en TechnologyReview.com el 1 de octubre de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web