Prerequisites of in-Context Learning for Transformers on Queries
DOI:
https://doi.org/10.13053/cys-29-3-5884Palabras clave:
Data compressors, sentiment neurons, in-context learning, zero-shot learning, few-shot learningResumen
Pre-trained generative transformers (GPT) with their 200+ billion parameters have already demonstrated their ability to successfully solve a wide range of text related problems without the need for additional taskspecific training. However, it has been observed that solution quality can be significantly improved for certain queries that reflect task formulation and conditions. It indicates that the transformer is further trained based on the query context, and the aim of this study is to show why GPT transformers enable to do it. To this end, the article jointly considers: elements of transformer architecture (data compressors and sentiment neurons), elements of the user interface with transformers (zero-shot and few-shot prompts), and text processing procedures (arithmetic coding and minimum description length). The authors attempt to provide a theoretical justification for the convergence of the sequential fine-tuning process using Hoeffding's inequality. The study presents experimental results demonstrating GPT transformers' capabilities for in-context learning. This confirms their potential for further development in natural language processing technologies.Descargas
Publicado
Número
Sección
Licencia
Transfiero exclusivamente a la revista “Computación y Sistemas”, editada por el Centro de Investigación en Computación (CIC), los Derechos de Autor del artículo antes mencionado, asimismo acepto que no serán transferidos a ninguna otra publicación, en cualquier formato, idioma, medio existente (incluyendo los electrónicos y multimedios) o por desarrollar.
Certifico que el artículo, no ha sido divulgado previamente o sometido simultáneamente a otra publicación y que no contiene materiales cuya publicación violaría los Derechos de Autor u otros derechos de propiedad de cualquier persona, empresa o institución. Certifico además que tengo autorización de la institución o empresa donde trabajo o estudio para publicar este Trabajo.
El autor, representante acepta la responsabilidad por la publicación del Trabajo en nombre de todos y cada uno de los autores.
Esta Transferencia está sujeta a las siguientes reservas:
- Los autores conservan todos los derechos de propiedad (tales como derechos de patente) de este Trabajo, con excepción de los derechos de publicación transferidos al CIC, mediante este documento.
- Los autores conservan el derecho de publicar el Trabajo total o parcialmente en cualquier libro del que ellos sean autores o editores y hacer uso personal de este trabajo en conferencias, cursos, páginas web personal, etc.