Resumen:¿Cuándo deberíamos delegar decisiones a los sistemas de IA? Si bien la literatura sobre alineación de valores ha desarrollado técnicas para dar forma a los valores de la IA, se ha prestado menos atención a cómo determinar, en condiciones de incertidumbre, cuándo una alineación imperfecta es lo suficientemente buena como para justificar la delegación.
Leer más →
Resumen: Los modelos de lenguajes grandes (LLM) actualmente exhiben bajas tasas de éxito en la generación de infraestructura como código (IaC) correcta y alineada con la intención. Esta investigación investigó métodos para mejorar la generación de IaC basada en LLM, específicamente para Terraform, mediante la inyección sistemática de conocimiento de configuración estructurada.
Leer más →
Resumen: Los modelos de lenguaje grande (LLM) se aplican cada vez más a la investigación científica, sin embargo, los puntos de referencia científicos predominantes investigan el conocimiento descontextualizado y pasan por alto el razonamiento iterativo, la generación de hipótesis y la interpretación de las observaciones que impulsan el descubrimiento científico.
Leer más →