
The AI Evaluator? Large Language Models and the Future of Research Assessment
Mike Thelwall
ORGANIZADORES
Unidad de Humanidades y Ciencias Sociales Computacionales (U-CHASS)
Máster de Traducción Profesional
Proyecto PID 24-180 TRADia
Evaluar la calidad de las publicaciones académicas es una tarea lenta que requiere expertos. Hasta hace poco, los principales indicadores cuantitativos utilizados para respaldar esta evaluación se basaban en las citas, como las tasas de citación de artículos o revistas. Sin embargo, ahora existen evidencias de que las puntuaciones generadas por los modelos de lenguaje de gran tamaño (LLMs, por sus siglas en inglés) se asocian más estrechamente con la calidad de la investigación en la mayoría de las disciplinas. Esta charla repasará las evidencias disponibles hasta el momento, analizará por qué los LLMs podrían tener esta capacidad y planteará interrogantes sobre cómo y si es posible utilizarlos para respaldar evaluaciones importantes de la investigación.
La asistencia es libre hasta completar el aforo