Resumen:En las plataformas de publicidad en línea, los anuncios promocionales recién introducidos enfrentan el problema del arranque en frío, ya que carecen de comentarios suficientes de los usuarios para la capacitación del modelo. En este trabajo, proponemos LLM-HYPER, un marco novedoso que trata los modelos de lenguaje grandes (LLM) como hiperredes para generar directamente los parámetros del estimador de la tasa de clics (CTR) sin entrenamiento. LLM-HYPER utiliza mensajes de cadena de pensamiento de pocas tomas sobre contenido publicitario multimodal (texto e imágenes) para inferir pesos de modelo por características para un predictor de CTR lineal. Al recuperar campañas pasadas semánticamente similares a través de incrustaciones CLIP y formatearlas en demostraciones basadas en mensajes, el LLM aprende a razonar sobre la intención del cliente, la influencia de las funciones y la relevancia del contenido. Para garantizar la estabilidad numérica y la capacidad de servicio, introducimos técnicas de normalización y calibración que alinean los pesos generados con distribuciones CTR listas para producción. Amplios experimentos fuera de línea muestran que LLM-HYPER supera significativamente las líneas base de arranque en frío en NDCG$@10$ en un 55,9%. Nuestra prueba A/B en línea del mundo real en una de las principales plataformas de comercio electrónico de EE. UU. demuestra el sólido desempeño de LLM-HYPER, que reduce drásticamente el período de arranque en frío y logra un desempeño competitivo. LLM-HYPER se ha implementado con éxito en producción.
Publicado originalmente en export.arxiv.org el 14 de abril de 2026.
Ver fuente original
