el corpus del español


Los corpus
Nueva interfaz
Tamaño
Comparar con otros corpus
   CORPES (RAE)
   Corpus más grandes
Otros recursos
Problemas (en inglés)
Contactar




English Español

Creado por Mark Davies (BYU). Subvencionado por el programa National Endowment for the Humanities de Estados Unidos (2001-2002, 2015-2017).

  Corpus # palabras Creado Más información
1 Género / Histórico 100 millones de palabras 2001-02 Info
2 Web / Dialectos 2.000 millones de palabras 2016 Info
3 NOW (2012 - el mes pasado) 5.100 millones de palabras 2018 Info
4 Google Books n-grams (BYU) 45.000 millones de palabras 2011 Info
5 WordAndPhrase 40.000 palabras más frecuentes 2017 Info

Esta es nuestra interfaz para los datos n-gramas de Google Books. Se basa en 45 mil millones de palabras en decenas de millones de libros del 1800 al 2000.

Los datos de n-gramas no permiten la gama completa de consultas que un corpus normal, pero todavía se puede encontrar la frecuencia de palabras y frases a lo largo del tiempo, así como encontrar los colocados de una palabra dada (incluyendo los colocados a lo largo del tiempo, para ver el cambio semántico). Y debido a que está basado en 45 mil millones de palabras, es una información increíblemente rica.