AstraMT: Instruction-Tuned Few-Shot Assamese–English Translation with Context-Aware Prompting and Reranking
DOI:
https://doi.org/10.13053/cys-29-3-5886Palabras clave:
Context aware prompt selector, prompt constructor, LLM, mixtralResumen
Developing machine translation (MT) systems for low-resource languages such as Assamese remains challenging due to limited parallel corpora and morphological complexity. Recent instruction-tuned large language models (LLMs) offer few-shot translation capabilities, but static prompt-based methods often yield suboptimal performance in real world scenarios. This paper introduces AstraMT, a modular pipeline for Assamese–English few-shot translation using LLMs. AstraMT incorporates a context-aware prompt selector (CAPS), syntactic prompt templates, multi-output reranking based on BLEU and COMET scores, and a lightweight post-editing module that corrects named entity errors and auxiliary omissions. The framework was evaluated on two datasets: the FLORES-200 devtest set and a manually aligned subset of the Samanantar corpus. AstraMT achieved BLEU improvements of up to +3.2 and COMET gains of +0.07 over static few-shot prompting. The AstraMT-Mixtral variant reached a BLEU of 23.0 on FLORES-200 and 21.3 on Samanantar, outperforming the supervised IndicTrans2 baseline. Qualitative and error analyses further highlighted AstraMT’s ability to generate fluent and semantically accurate translations. These results demonstrate that AstraMT provides an effective and extensible framework for LLM based translation in low-resource settings and can generalize across different LLMs without additional fine-tuning.Descargas
Publicado
Número
Sección
Licencia
Transfiero exclusivamente a la revista “Computación y Sistemas”, editada por el Centro de Investigación en Computación (CIC), los Derechos de Autor del artículo antes mencionado, asimismo acepto que no serán transferidos a ninguna otra publicación, en cualquier formato, idioma, medio existente (incluyendo los electrónicos y multimedios) o por desarrollar.
Certifico que el artículo, no ha sido divulgado previamente o sometido simultáneamente a otra publicación y que no contiene materiales cuya publicación violaría los Derechos de Autor u otros derechos de propiedad de cualquier persona, empresa o institución. Certifico además que tengo autorización de la institución o empresa donde trabajo o estudio para publicar este Trabajo.
El autor, representante acepta la responsabilidad por la publicación del Trabajo en nombre de todos y cada uno de los autores.
Esta Transferencia está sujeta a las siguientes reservas:
- Los autores conservan todos los derechos de propiedad (tales como derechos de patente) de este Trabajo, con excepción de los derechos de publicación transferidos al CIC, mediante este documento.
- Los autores conservan el derecho de publicar el Trabajo total o parcialmente en cualquier libro del que ellos sean autores o editores y hacer uso personal de este trabajo en conferencias, cursos, páginas web personal, etc.