{rfName}
Sp

Licencia y uso

Icono OpenAccess

Altmetrics

Investigadores/as Institucionales

Fernández Martínez, FernandoAutor o CoautorSan-Segundo, R.Autor (correspondencia)Cordoba, R.Autor o CoautorD'Haro, L. F.Autor o CoautorFernández, F.Autor o CoautorFerreiros, J.Autor o CoautorMontero, J. M.Autor o CoautorPardo, J. M.Autor o Coautor

Compartir

9 de junio de 2019
Publicaciones
>
Artículo
Green

Speech to sign language translation system for Spanish

Publicado en: SPEECH COMMUNICATION. 50 (11-12): 1009-1020 - 2008-12-01 50(11-12), DOI: 10.1016/j.specom.2008.02.001

Autores:

San-Segundo, R; Barra, R; Cordoba, R; D'Haro, L F; Fernandez, F; Ferreiros, J; Lucas, J M; Macias-Guarasa, J; Montero, J M; Pardo, J M
[+]

Afiliaciones

Univ Alcala De Henares, Dept Elect, Alcala De Henares, Spain - Autor o Coautor
Univ Politecn Madrid, Grp Tecnol Habla, Dept Ingn Elect, ETSI Telecomunicac, E-28040 Madrid, Spain - Autor o Coautor

Resumen

This paper describes the development of and the first experiments in a Spanish to sign language translation system in a real domain. The developed system focuses oil the sentences spoken by ail official when assisting people applying for, or renewing their identity Card. The system translates official explanations into Spanish Sign Language (LSE: Lengua de Signos Espanola) for Deaf people. The translation system is made up of a speech recognizer (for decoding the spoken utterance into a word sequence), a natural language translator (for converting a word sequence into a sequence of signs belonging to the sign language), and a 3D avatar animation module (for playing back the]land movements). Two proposals for natural language translation have been evaluated: a rule-based translation module (that computes sign confidence measures from the word confidence measures obtained in the speech recognition module) and a statistical translation module (in this case, parallel corpora were used for training the statistical model). The best configuration reported 31.6% SER (Sign Error Rate) and 0.5780 BLEU (BiLingual Evaluation Understudy). The paper also describes the eSIGN 3D avatar animation module (considering the sign confidence), and the limitations found when implementing a strategy for reducing the delay between the spoken utterance and the sign sequence animation. (C) 2008 Elsevier B.V. All rights reserved.
[+]

Palabras clave

Machine translationSign animationSpanish sign language (lse)Spoken language translation

Indicios de calidad

Impacto bibliométrico. Análisis de la aportación y canal de difusión

El trabajo ha sido publicado en la revista SPEECH COMMUNICATION debido a la progresión y el buen impacto que ha alcanzado en los últimos años, según la agencia Scopus (SJR), se ha convertido en una referencia en su campo. En el año de publicación del trabajo, 2008, se encontraba en la posición , consiguiendo con ello situarse como revista Q1 (Primer Cuartil), en la categoría Computer Vision and Pattern Recognition. Destacable, igualmente, el hecho de que la Revista está posicionada por encima del Percentil 90.

Independientemente del impacto esperado determinado por el canal de difusión, es importante destacar el impacto real observado de la propia aportación.

Según las diferentes agencias de indexación, el número de citas acumuladas por esta publicación hasta la fecha 2026-04-24:

  • WoS: 59
  • Scopus: 80
[+]

Impacto y visibilidad social

Desde la dimensión de Influencia o adopción social, y tomando como base las métricas asociadas a las menciones e interacciones proporcionadas por agencias especializadas en el cálculo de las denominadas “Métricas Alternativas o Sociales”, podemos destacar a fecha 2026-04-24:

  • El uso, desde el ámbito académico evidenciado por el indicador de la agencia Altmetric referido como agregaciones realizadas por el gestor bibliográfico personal Mendeley, nos da un total de: 141.
  • La utilización de esta aportación en marcadores, bifurcaciones de código, añadidos a listas de favoritos para una lectura recurrente, así como visualizaciones generales, indica que alguien está usando la publicación como base de su trabajo actual. Esto puede ser un indicador destacado de futuras citas más formales y académicas. Tal afirmación es avalada por el resultado del indicador “Capture” que arroja un total de: 141 (PlumX).

Con una intencionalidad más de divulgación y orientada a audiencias más generales podemos observar otras puntuaciones más globales como:

  • El Score total de Altmetric: 9.

Es fundamental presentar evidencias que respalden la plena alineación con los principios y directrices institucionales en torno a la Ciencia Abierta y la Conservación y Difusión del Patrimonio Intelectual. Un claro ejemplo de ello es:

  • El trabajo se ha enviado a una revista cuya política editorial permite la publicación en abierto Open Access.
  • Asignación de un Handle/URN como identificador dentro del Depósito en el Repositorio Institucional: https://oa.upm.es/2139/

Como resultado de la publicación del trabajo en el repositorio institucional, se han obtenido datos estadísticos de uso que reflejan su impacto. En términos de difusión, podemos afirmar que, hasta la fecha

  • Visualizaciones: 824
  • Descargas: 842
[+]

Análisis de liderazgo de los autores institucionales

Existe un liderazgo significativo ya que algunos de los autores pertenecientes a la institución aparecen como primer o último firmante, se puede apreciar en el detalle: Primer Autor (SAN SEGUNDO HERNANDEZ, RUBEN) y Último Autor (PARDO MUÑOZ, JOSE MANUEL).

el autor responsable de establecer las labores de correspondencia ha sido SAN SEGUNDO HERNANDEZ, RUBEN.

[+]

Reconocimientos ligados al ítem

The authors would like to thank the eSIGN (Essential Sign Language Information on Government Networks) consortium for giving us permission to use of the eSIGN Editor and the 3D avatar in this research work. This work has been supported by the following projects ATI-NA (UPM-DGUI-CAM. Ref: CCG06-UPM/COM-516), ROBINT (MEC Ref: DPI2004-07908-C02) and EDEC-AN (MEC Ref. TIN2005-08660-C04). The work presented here was carried out while Javier Macias-Guarasa was a member of the Speech Technology Group (Department of Electronic Engineering, ETSIT de Telecomunicacion. Universidad Politecnica de Madrid). Authors also want to thank Mark Hallett for the English revision.
[+]