En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->ChiEngMixBench: Evaluación de modelos de lenguaje grandes en generación mixta de código chino-inglés natural y espontáneo

ChiEngMixBench: Evaluación de modelos de lenguaje grandes en generación mixta de código chino-inglés natural y espontáneo

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: La mezcla de códigos es cada vez más frecuente en las interacciones entre humanos y grandes modelos de lenguaje, sin embargo, el trabajo existente a menudo la reduce a un problema de traducción o convertibilidad, lo que dificulta evaluar si el comportamiento de cambio de un modelo es apropiado para el contexto y está alineado con las convenciones humanas. Presentamos ChiEngMixBench, el primer punto de referencia diseñado para evaluar la capacidad de combinación de código en contextos comunitarios auténticos, construido sobre un proceso de construcción general que permite el desarrollo de conjuntos de datos escalables entre dominios y pares bilingües. ChiEngMixBench formula la mezcla de códigos como un problema de alineación cognitiva, caracterizado por dos señales complementarias: espontaneidad y naturalidad. La evaluación empírica muestra que nuestras métricas pueden distinguir sistemáticamente el rendimiento de la combinación de códigos entre modelos. Más allá de la evaluación comparativa, descubrimos una estrategia de estratificación terminológica implícitamente emergente, un fenómeno consistente con la teoría del marco de lenguaje matricial (MLF), que indica una alineación cognitiva estructurada entre los modelos de lenguajes grandes multilingües y la comunicación humana.

Publicado originalmente en export.arxiv.org el 25 de enero de 2026.
Ver fuente original

admin

Usuario de administración del sitio web