En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->URZAGPT: modelos de idiomas grandes sintonizados con Lora para la selección de tarjetas en juegos de cartas coleccionables

URZAGPT: modelos de idiomas grandes sintonizados con Lora para la selección de tarjetas en juegos de cartas coleccionables

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Los juegos de cartas coleccionables (CCG) son un género difícil para la IA debido a su observabilidad parcial, toma de decisiones a largo plazo y conjuntos de tarjetas en evolución. Debido a esto, los modelos actuales de IA funcionan enormemente que los jugadores humanos en tareas de CCG, como la construcción de mazos y el juego. En este trabajo, presentamos $ textit {urzagpt} $, un modelo de lenguaje grande adaptado al dominio que recomienda decisiones de redacción en tiempo real en $ textit {Magic: The Reunsing} $. A partir de un LLM de peso abierto, utilizamos adaptación de bajo rango ajustado en un conjunto de datos de registros de borradores anotados. Con esto, aprovechamos las capacidades de modelado de idiomas de LLM y podemos adaptar rápidamente a las diferentes expansiones del juego. Benchmaremos $ textit {urzagpt} $ en comparación con los LLM de cero-shot y el modelo específico de dominio de última generación. Sintonizados, pequeños LLM como Llama-3-8B no pueden redactar, pero el GPT-4O más grande logra un rendimiento de disparo cero de $ 43 %$. Usando URZAGPT para ajustar modelos más pequeños, logramos una precisión de $ 66.2 %$ usando solo 10,000 pasos. A pesar de que esto no alcanza la capacidad de los modelos específicos del dominio, mostramos que es posible usar únicamente el uso de LLM para el borrador y concluir que el uso de LLM puede habilitar el rendimiento, general y las IA de redacción de actualizaciones en el futuro.

Publicado Originalme en export.arxiv.org El 12 de agosto de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web