• español
    • English
  • English 
    • español
    • English
  • Login
View Item 
  •   DSpace Home
  • Revistas de la UCO
  • Skopos. Revista Internacional de Traducción e Interpretación
  • Skopos. Vol. 09 (2018)
  • View Item
  •   DSpace Home
  • Revistas de la UCO
  • Skopos. Revista Internacional de Traducción e Interpretación
  • Skopos. Vol. 09 (2018)
  • View Item
JavaScript is disabled for your browser. Some features of this site may not work without it.

Big data y corpus lingüísticos para el estudio de la densidad léxica

Big data and linguistic corpora as a tool for the study of lexical density

Thumbnail
View/Open
skopos_09_06.pdf (434.8Kb)
Author
González Fernández, Adela
Publisher
UCOPress
Date
2018
Subject
Lingüística de corpus
Densidad léxica
Diversidad léxica
Big Data
Twitter
Corpus linguistics
Lexical density
Lexical diversity
METS:
Mostrar el registro METS
PREMIS:
Mostrar el registro PREMIS
Metadata
Show full item record
Abstract
La unión entre la Informática y de la Lingüística es cada vez más frecuente en las investigaciones en el campo del lenguaje y de las lenguas. La Lingüística de corpus, en especial, se está viendo beneficiada por este emparejamiento, gracias a los avances a la hora de gestionar y procesar los corpora. En este trabajo damos un paso más y proponemos el trabajo en Lingüística de corpus a través de big data, en general, y de Twitter, en particular. Gracias a la creación de una herramienta informática diseñada específicamente para el trabajo lingüístico en big data, obtendremos una inmensa cantidad de información textual que nos servirá para la compilación de corpora mediante los que estudiaremos la diversidad léxica en el lenguaje de cuatro escritores españoles. Para ello, extraeremos los tuits publicados por ellos en sus cuentas de Twitter y los procesaremos a través de nuestra herramienta para obtener la información deseada. Intentaremos demostrar, también, la mejora que esta nueva metodología supone en este tipo de estudios.
 
The merger of Computer Sciences and Linguistics is increasingly common in researches in the field of languages. Corpus linguistics, specially, is benefiting from this matching, due to the improvements in management and processing of corpora. In this work we go one step further and suggest working in Corpus linguistics with big data, in general, and Twitter, in particular. Thanks to the development of a software specifically designed for linguistic work with big data, we will obtain a vast amount of information which will be used to compile linguistic corpora through which we will study the lexical density in four Spanish writers. In order to do that, we will obtain the tweets published by them in their Twitter accounts and we will process them with our software tool. We also aim to prove the benefits that this methodology implies in this kind of research.
 
URI
http://hdl.handle.net/10396/19125
Fuente
Skopos 9, 107-122 (2018)
Versión del Editor
https://www.uco.es/ucopress/ojs/index.php/skopos/index
Collections
  • DCL-Artículos, capítulos, libros...
  • Artículos, capítulos, libros...UCO
  • Skopos. Vol. 09 (2018)

DSpace software copyright © 2002-2015  DuraSpace
Contact Us | Send Feedback
© Biblioteca Universidad de Córdoba
Biblioteca  UCODigital
 

 

Browse

All of DSpaceCommunities & CollectionsBy Issue DateAuthorsTitlesSubjectsThis CollectionBy Issue DateAuthorsTitlesSubjects

My Account

LoginRegister

Statistics

View Usage Statistics

De Interés

Archivo Delegado/AutoarchivoAyudaPolíticas de Helvia

Compartir


DSpace software copyright © 2002-2015  DuraSpace
Contact Us | Send Feedback
© Biblioteca Universidad de Córdoba
Biblioteca  UCODigital