En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="2"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Afinidad de Llama: un modelo de unión de antígeno de anticuerpo predictivo que integra secuencias de anticuerpos con arquitectura de la red troncal LLAMA3

Afinidad de Llama: un modelo de unión de antígeno de anticuerpo predictivo que integra secuencias de anticuerpos con arquitectura de la red troncal LLAMA3

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Las respuestas inmunes facilitadas por anticuerpos son fundamentales para la defensa del cuerpo contra los patógenos, los virus y otros invasores extranjeros. La capacidad de los anticuerpos para unir y neutralizar específicamente los antígenos es vital para mantener la inmunidad. En las últimas décadas, los avances de bioingeniería han acelerado significativamente el desarrollo de anticuerpos terapéuticos. Estos medicamentos derivados de anticuerpos han mostrado notable eficacia, particularmente en el tratamiento del cáncer, SARS-CoV-2, trastornos autoinmunes y enfermedades infecciosas. Tradicionalmente, los métodos experimentales para la medición de la afinidad han sido lentos y costosos. Con el advenimiento de la inteligencia artificial, la medicina in silico ha sido revolucionada; Los desarrollos recientes en el aprendizaje automático, particularmente el uso de modelos de idiomas grandes (LLM) para representar anticuerpos, han abierto nuevas vías para el diseño basado en IA y una predicción de afinidad mejorada. Aquí, presentamos un modelo avanzado de predicción de afinidad de enlace de anticuerpos-antibueros (LLAMAFFINITION), aprovechando una red de secuencia de la columna vertebral de Llama 3 y anticuerpos de código abierto procedentes de la base de datos de espacio de anticuerpos observada (OAS). El enfoque propuesto muestra una mejora significativa sobre los métodos existentes de estado de arte (SOTA) (antiformador, antibera, antibertad) en múltiples métricas de evaluación. Específicamente, el modelo logró una precisión de 0.9640, un puntaje F1 de 0.9643, una precisión de 0.9702, un retiro de 0.9586 y un AUC-ROC de 0.9936. Además, esta estrategia dio a conocer una mayor eficiencia computacional, con un tiempo de entrenamiento acumulativo promedio de cinco veces de solo 0.46 horas, significativamente más bajo que en estudios anteriores.

Publicado Originalme en rss.arxiv.org El 11 de junio de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web