Necesidad de contexto Introducción En la era moderna del procesamiento de lenguaje natural (NLP), los embeddings han revolucionado nuestra capacidad para representar y manipular texto numéricamente. Sin embargo, estos sistemas no están exen…
Limitaciones de embeddings clásicos Introducción Los embeddings clásicos son fundamentales para muchas aplicaciones de inteligencia artificial, especialmente en procesamiento del lenguaje natural (NLP). Sin embargo, a pesar de su eficacia e…
Polisemia Introducción La polisemia es un fenómeno fundamental en la lingüística que tiene profundas implicaciones para el procesamiento de lenguaje natural (NLP). En resumen, la polisemia se refiere a la situación en la que una palabra pue…
Casos de uso de GloVe y FastText Introducción GloVe (Global Vectors for Word Representation) y FastText son dos de las técnicas más populares para generar embeddings de palabras. Estas técnicas han revolucionado la forma en que los modelos …
Subpalabras en FastText Introducción En el campo de la Inteligencia Artificial y el Procesamiento del Lenguaje Natural (NLP), las subpalabras son un concepto crucial que permite capturar información más detallada sobre las palabras. Este ar…
Co-ocurrencias globales: GloVe y FastText Introducción En la transformación de texto a números, los embeddings son una herramienta fundamental para representar palabras de manera numérica. Mientras que Word2Vec es uno de los modelos más con…
Qué aprende realmente Word2Vec Introducción Word2Vec es uno de los modelos más influyentes para crear embeddings (representaciones numéricas) de palabras. A diferencia de las representaciones one-hot, que solo codifican la presencia o ausen…
Skip-gram Introducción El algoritmo Skip-gram es uno de los dos métodos más utilizados para generar embeddings word2vec, junto con CBOW (Continuous Bag of Words). A diferencia de CBOW, que predice una palabra a partir del contexto de palabr…