Descripción
Recientemente, los modelos de lenguaje neuronales pre-entrenados a gran escala han supuesto un salto cualitativo muy importante en el desarrollo de sistemas en tecnologías de la lengua. Existe muchísima literatura en donde se estudian estos modelos desde su potencia de predicción en diferentes tareas como clasificación de textos, generación de resúmenes o respuestas, traducción automática, etc.
El inconveniente de la mayoría de los modelos estudiados es que funcionan como una caja negra, es decir, entre otras cosas, no permiten manipular u operar sobre fragmentos de información para la optimización o depuración de soluciones. Sin embargo, estos sistemas son además una potente herramienta de representación semántico-distribucional, en donde los textos se traducen a un espacio multi-dimensional donde se puede medir, comparar o agregar piezas de información. Disponer de estos mecanismos de representación y operadores mitiga el problema de la caja negra de los sistemas basados en modelos de lenguaje neuronales. Esta línea de investigación se centra en el desarrollo y evaluación de funciones que midan la cantidad de información, su similitud semántica, o que permitan combinar representación en base a generalización o especificación semántica.
Profesor/es
Enrique Amigó y Víctor Fresno
Asignaturas recomendadas
- 31101076 DESCUBRIMIENTO DE INFORMACIÓN EN TEXTOS
- 31101019 ACCESO INTELIGENTE A LA INFORMACIÓN
- 31070023 REPRESENTACIÓN DE TEXTOS EN ESPACIOS VECTORIALES Y PROBABILÍSTICOS
- 31070017 REDES NEURONALES PARA EL PROCESAMIENTO DEL LENGUAJE NATURAL