Asignación latente de Dirichlet

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

En el procesamiento del lenguaje natural, la asignación de Dirichlet latente (LDA) es una red bayesiana (y, por lo tanto, un modelo estadístico generativo) para modelar temas extraídos automáticamente en corpus textuales. La LDA es un ejemplo de un modelo de tópicos bayesiano. En este, las observaciones (por ejemplo, palabras) se recopilan en documentos y la presencia de cada palabra es atribuible a uno de los tópicos del documento. Cada documento contendrá una pequeña cantidad de tópicos.

Historia

En el contexto de la genética de poblaciones, el LDA fue propuesto por J. K. Pritchard, M. Stephens y P. Donnelly en 2000.

David Blei, Andrew Ng y Michael I. Jordan aplicaron LDA en el aprendizaje automático en 2003.

Sinopsis

Biología evolutiva y biomedicina

En biología evolutiva y biomedicina, el modelo se utiliza para detectar la presencia de variación genética estructurada en un grupo de individuos. El modelo supone que los alelos que portan los individuos en estudio tienen su origen en varias poblaciones actuales o pasadas. El modelo y varios algoritmos de inferencia permiten a los científicos estimar las frecuencias de los alelos en esas poblaciones de origen y el origen de los alelos que portan los individuos en estudio. Las poblaciones de origen se pueden interpretar ex post en términos de varios escenarios evolutivos. En los estudios de asociación, la detección de la presencia de estructura genética se considera un paso preliminar necesario para evitar la confusión.

Psicología clínica, salud mental y ciencias sociales

En la investigación en psicología clínica, el LDA se ha utilizado para identificar temas comunes de autoimágenes que experimentan los jóvenes en situaciones sociales. Otros científicos sociales han utilizado el LDA para examinar grandes conjuntos de datos temáticos de debates en las redes sociales (por ejemplo, tuits sobre medicamentos recetados).

Musicología

En el contexto de la musicología computacional, el LDA se ha utilizado para descubrir estructuras tonales en diferentes corpus.

Aprendizaje a máquina

Una aplicación de LDA en el aprendizaje automático (específicamente, el descubrimiento de temas, un subproblema del procesamiento del lenguaje natural) es descubrir temas en una colección de documentos y luego clasificar automáticamente cualquier documento individual dentro de la colección en términos de su "relevancia" para cada uno de los temas descubiertos. Se considera que un tema es un conjunto de términos (es decir, palabras o frases individuales) que, en conjunto, sugieren un tema compartido.

Por ejemplo, en una colección de documentos relacionada con animales domésticos, los términos perro, spaniel, beagle, golden retriever, cachorro, ladrido y guau sugerirían un tema relacionado con PERRO, mientras que los términos gato, siamés, maine coon, atigrado, manx, miau, ronroneo y gatito sugerirían un tema relacionado con GATO. Puede haber muchos más temas en la colección (por ejemplo, relacionados con la dieta, el aseo, la atención médica, el comportamiento, etc.) que no analizamos para simplificar. (Las palabras vacías muy comunes en un idioma, por ejemplo, "the", "an", "that", "are", "is", etc., no discriminan entre temas y, por lo general, se filtran mediante el preprocesamiento antes de que se realice el LDA. El preprocesamiento también convierte los términos a sus formas léxicas "raíz"; por ejemplo, "barks", "barking" y "barked" se convertirían en "bark".)

Si la colección de documentos es lo suficientemente grande, LDA descubrirá dichos conjuntos de términos (es decir, temas) basándose en la coocurrencia de términos individuales, aunque la tarea de asignar una etiqueta significativa a un tema individual (es decir, que todos los términos estén relacionados con DOG) depende del usuario y, a menudo, requiere conocimientos especializados (por ejemplo, para la recopilación de documentos técnicos). El enfoque LDA supone que:

  1. El contenido semántico de un documento está compuesto por combinar uno o más términos de uno o más temas.
  2. Ciertos términos ambiguo, perteneciente a más de un tema, con diferente probabilidad. (Por ejemplo, el término Capacitación puede aplicarse tanto a perros como a gatos, pero son más propensos a referirse a perros, que se utilizan como animales de trabajo o participan en concursos de obediencia o habilidad.) Sin embargo, en un documento, la presencia adjunta de específico términos vecinos (que pertenecen a un solo tema) desambiguarán su uso.
  3. La mayoría de los documentos contendrán sólo un número relativamente pequeño de temas. En la colección, por ejemplo, los temas individuales ocurrirán con frecuencias diferentes. Es decir, tienen una distribución de probabilidad, por lo que un documento dado es más probable que contenga algunos temas que otros.
  4. Dentro de un tema, ciertos términos se utilizarán con mucha más frecuencia que otros. En otras palabras, los términos dentro de un tema también tendrán su propia distribución de probabilidad.

Cuando se emplea el aprendizaje automático LDA, ambos conjuntos de probabilidades se calculan durante la fase de entrenamiento, utilizando métodos bayesianos y un algoritmo de maximización de expectativas.

LDA es una generalización del enfoque anterior del análisis semántico latente probabilístico (pLSA). El modelo pLSA es equivalente a LDA bajo una distribución previa de Dirichlet uniforme. El pLSA se basa únicamente en los dos primeros supuestos anteriores y no se ocupa del resto. Si bien ambos métodos son similares en principio y requieren que el usuario especifique la cantidad de temas que se descubrirán antes del inicio del entrenamiento (como con la agrupación de K-medias), LDA tiene las siguientes ventajas sobre pLSA:

  • La LDA produce una mejor desambiguación de palabras y una asignación más precisa de documentos a temas.
  • Las probabilidades de computación permiten un proceso "generativo" mediante el cual se puede generar una colección de nuevos "documentos sintéticos" que reflejen de cerca las características estadísticas de la colección original.
  • A diferencia de la LDA, el pLSA es vulnerable a la superposición, especialmente cuando aumenta el tamaño del cuerpo.
  • El algoritmo LDA es más fácilmente recomendable para escalar para conjuntos de datos grandes utilizando el enfoque MapReduce en un clúster de cálculo.

Modelo

Nota de placa que representa el modelo LDA

Con la notación de placas, que se utiliza a menudo para representar modelos gráficos probabilísticos (PGM), las dependencias entre las distintas variables se pueden capturar de forma concisa. Los cuadros son "placas" que representan réplicas, que son entidades repetidas. La placa exterior representa documentos, mientras que la placa interior representa las posiciones de palabras repetidas en un documento determinado; cada posición está asociada con una elección de tema y palabra. Los nombres de las variables se definen de la siguiente manera:

M denota el número de documentos
N es número de palabras en un documento dado (documento i tiene palabras)
α es el parámetro del Dirichlet anterior sobre las distribuciones de temas por documento
β es el parámetro del Dirichlet anterior en la distribución de palabras por tema
es la distribución de temas para el documento i
es la distribución de palabras para el tema k
es el tema para el j-la palabra en el documento i
es la palabra específica.
Notación de placas para LDA con distribuciones de palabras temáticas distribuidas por Dirichlet

El hecho de que W se grayed significa que las palabras son las únicas variables observables, y las otras variables son variables latentes. Como se propone en el papel original, un Dirichlet anterior escaso se puede utilizar para modelar la distribución del tema-palabra, siguiendo la intuición de que la distribución de probabilidad sobre las palabras en un tema es segado, de modo que sólo un pequeño conjunto de palabras tienen alta probabilidad. El modelo resultante es la variante más ampliamente aplicada de la LDA hoy. La notación de placa para este modelo se muestra a la derecha, donde denota el número de temas y son - vectores dimensionales que almacenan los parámetros de las distribuciones de palabras temáticas distribuidas por Dirichlet ( es el número de palabras en el vocabulario).

Es útil pensar en las entidades representadas por y como matrices creadas por la descomposición de la matriz original de la palabra documento que representa el corpus de documentos que se están modelando. A este respecto, consta de filas definidas por documentos y columnas definidas por temas, mientras consiste en filas definidas por temas y columnas definidas por palabras. Así, se refiere a un conjunto de filas, o vectores, cada uno de los cuales es una distribución sobre palabras, y se refiere a un conjunto de filas, cada una de las cuales es una distribución sobre temas.

Proceso generador

Para realmente inferir los temas en un corpus, imaginamos un proceso generativo por el cual se crean los documentos, para que podamos inferir, o ingeniería inversa, él. Imaginamos el proceso generativo como sigue. Los documentos están representados como mezclas aleatorias sobre temas latentes, donde cada tema se caracteriza por una distribución sobre todas las palabras. LDA asume el siguiente proceso generativo para un corpus consistente en documentos de cada longitud :

1. Elija , donde y es una distribución Dirichlet con un parámetro simétrico que normalmente es escasa ()

2. Elija , donde y típicamente escaso

3. Para cada una de las posiciones , donde , y

a) Elija un tema
b) Elige una palabra

(Tenga en cuenta que aquí la distribución multinomial se refiere a la distribución multinomial con un solo ensayo, que también se conoce como distribución categórica).

Las longitudes son tratados como independientes de todas las otras variables generadoras de datos ( y ). El subscripto se deja caer a menudo, como en los diagramas de placa que se muestran aquí.

Definición

Una descripción formal de LDA es la siguiente:

Definición de variables en el modelo
VariableTipoSignificado
enteroNúmero de temas (por ejemplo, 50)
enteronúmero de palabras en el vocabulario (por ejemplo 50.000 o 1.000.000)
enteroNúmero de documentos
enteronúmero de palabras en el documento d
enterototal de palabras en todos los documentos; suma de todas valores, es decir.
positivo realpeso previo del tema k en un documento; generalmente lo mismo para todos los temas; normalmente un número inferior a 1, por ejemplo 0.1, para preferir las distribuciones de temas escasos, es decir, pocos temas por documento
K- vector dimensional de reales positivoscolección de todos valores, vistos como un vector único
positivo realpeso previo de la palabra w en un tema; generalmente lo mismo para todas las palabras; normalmente un número mucho menos de 1, por ejemplo 0.001, para preferir fuertemente escasas distribuciones de palabras, es decir, pocas palabras por tema
V- vector dimensional de reales positivoscolección de todos valores, vistos como un vector único
probabilidad (número real entre 0 y 1)probabilidad de palabra w en el tema k
V- vector dimensional de probabilidades, que debe sumar a 1distribución de palabras en tema k
probabilidad (número real entre 0 y 1)probabilidad de temas k en el documento d
K- vector dimensional de probabilidades, que debe sumar a 1distribución de temas en el documento d
entero entre 1 y 1 Kidentidad de tema de palabra w en el documento d
N- vector dimensional de enteros entre 1 y 1 Kidentidad de tema de todas las palabras en todos los documentos
entero entre 1 y 1 Videntidad de palabra w en el documento d
N- vector dimensional de enteros entre 1 y 1 Videntidad de todas las palabras en todos los documentos

Podemos entonces describir matemáticamente las variables aleatorias de la siguiente manera:

Inferencias

El aprendizaje de las distintas distribuciones (el conjunto de temas, sus probabilidades de palabras asociadas, el tema de cada palabra y la combinación particular de temas de cada documento) es un problema de inferencia estadística.

Simulación Monte Carlo

El artículo original de Pritchard et al. utilizó una aproximación de la distribución posterior mediante simulación de Monte Carlo. La propuesta alternativa de técnicas de inferencia incluye el muestreo de Gibbs.

Bahías variables

El artículo original de ML utilizó una aproximación bayesiana variacional de la distribución posterior.

Maximización de la probabilidad

Una optimización directa de la probabilidad con un algoritmo de relajación de bloques resulta ser una alternativa rápida al MCMC.

Número desconocido de poblaciones/tópicas

En la práctica, el número óptimo de poblaciones o temas no se conoce de antemano. Se puede estimar mediante la aproximación de la distribución posterior con el método Monte Carlo de cadena de Markov con saltos reversibles.

Enfoques alternativos

Otros enfoques alternativos incluyen la propagación de expectativas.

La investigación reciente se ha centrado en acelerar la inferencia de la asignación de Dirichlet latente para apoyar la captura de un número masivo de temas en un gran número de documentos. La ecuación de actualización del sampler colapsado de Gibbs mencionado en la sección anterior tiene una esparidad natural dentro de ella que se puede aprovechar. Intuitivamente, ya que cada documento sólo contiene un subconjunto de temas , y una palabra también sólo aparece en un subconjunto de temas , la ecuación de actualización anterior podría ser reescrita para tomar ventaja de esta espacidad.

En esta ecuación, tenemos tres términos, de los cuales dos son escasos, y el otro es pequeño. Nosotros llamamos a estos términos y respectivamente. Ahora, si normalizamos cada término resumiendo todos los temas, obtenemos:

Aquí, podemos ver que es un resumen de los temas que aparecen en el documento , y es también un resumen escaso de los temas que una palabra se asigna a todo el cuerpo. por otro lado, es denso pero debido a los pequeños valores de " , el valor es muy pequeño en comparación con los otros dos términos.

Ahora, mientras muestra un tema, si muestramos una variable aleatoria uniformemente desde Podemos comprobar en qué cubo aterriza nuestra muestra. Desde es pequeño, somos muy poco probables caer en este cubo; sin embargo, si caemos en este cubo, muestreando un tema toma tiempo (igual que el original Collapsed Gibbs Sampler). Sin embargo, si caemos en los otros dos cubos, sólo necesitamos revisar un subconjunto de temas si guardamos un registro de los temas escasos. Un tema se puede probar del cubo en tiempo, y un tema se puede probar del cubo en tiempo donde y denota el número de temas asignados al documento actual y el tipo de palabra actual respectivamente.

Observe que después de muestrear cada tema, actualizar estos cubos es todo básico operaciones aritméticas.

Aspectos de los detalles computacionales

A continuación se derivan las ecuaciones para el muestreo colapsado de Gibbs, lo que significa s and s se integrará. Para la simplicidad, en esta derivación se supone que todos los documentos tienen la misma longitud . La derivación es igualmente válida si las longitudes del documento varían.

Según el modelo, la probabilidad total del modelo es:

donde las variables bold-font denotan la versión vectorial de las variables. Primero, y necesita ser integrado.

Todo el mundo s son independientes entre sí y lo mismo para todos s. Así podemos tratar a cada uno y cada uno por separado. Ahora nos centramos sólo en el parte.

Podemos concentrarnos más en uno. como sigue:

En realidad, es la parte oculta del modelo para el documento. Ahora reemplazamos las probabilidades en la ecuación anterior por la verdadera expresión de distribución para escribir la ecuación explícita.

Vamos. ser el número de fichas de palabras en el documento con la misma palabra símbolo (el palabra en el vocabulario) asignado a Tema. Entonces, es tridimensional. Si cualquiera de las tres dimensiones no se limita a un valor específico, utilizamos un punto paréntesis a Denote. Por ejemplo, denota el número de fichas de palabras en el documento asignado al Tema. Así, la mayor parte de la ecuación anterior puede ser reescrita como:

Así que... la fórmula de integración se puede cambiar a:

La ecuación dentro de la integración tiene la misma forma que la distribución de Dirichlet. Según la distribución de Dirichlet,

Por lo tanto,

Ahora ponemos nuestra atención a la parte. En realidad, la derivación de la parte es muy similar a la parte. Aquí sólo enumeramos los pasos de la derivación:

Para la claridad, aquí escribimos la ecuación final con ambos y integrado:

El objetivo de Gibbs Sampling aquí es aproximar la distribución de . Desde es invariable para cualquiera de las ecuaciones Z, Gibbs Sampling puede derivarse de directamente. El punto clave es derivar la siguiente probabilidad condicional:

Donde denota los variable oculta de la palabra token en el documento. Y además asumimos que la palabra símbolo de ella es el palabra en el vocabulario. denota todos los s pero . Tenga en cuenta que Gibbs Sampling sólo necesita para probar un valor para , según la probabilidad anterior, no necesitamos el valor exacto

pero las relaciones entre las probabilidades que puede tomar valor. Así, la ecuación anterior se puede simplificar como:

Finalmente, vamos ser el mismo significado pero con excluido. La ecuación anterior puede ser más simplificada aprovechando la propiedad de la función gamma. Primero dividimos la suma y luego la fusionamos para obtener una -Summación independiente, que podría ser bajada:

Tenga en cuenta que la misma fórmula se deriva en el artículo sobre la distribución multinomial de Dirichlet, como parte de una discusión más general sobre la integración de valores a priori de la distribución de Dirichlet a partir de una red bayesiana.

El modelado de temas es una solución clásica al problema de la recuperación de información mediante el uso de datos vinculados y tecnología de la web semántica. Los modelos y técnicas relacionados son, entre otros, la indexación semántica latente, el análisis de componentes independientes, la indexación semántica latente probabilística, la factorización matricial no negativa y la distribución Gamma-Poisson.

El modelo LDA es altamente modular y, por lo tanto, se puede ampliar fácilmente. El principal campo de interés es el modelado de relaciones entre temas. Esto se logra utilizando otra distribución en el símplex en lugar de la de Dirichlet. El modelo de temas correlacionados sigue este enfoque, induciendo una estructura de correlación entre temas utilizando la distribución normal logística en lugar de la de Dirichlet. Otra extensión es el LDA jerárquico (hLDA), donde los temas se unen en una jerarquía utilizando el proceso de restaurante chino anidado, cuya estructura se aprende a partir de los datos. El LDA también se puede extender a un corpus en el que un documento incluye dos tipos de información (por ejemplo, palabras y nombres), como en el modelo LDA dual. Las extensiones no paramétricas del LDA incluyen el modelo de mezcla de procesos Dirichlet jerárquico, que permite que el número de temas sea ilimitado y se aprenda a partir de los datos.

Como se señaló anteriormente, el PLSA es similar al LDA. El modelo LDA es esencialmente la versión bayesiana del modelo pLSA. La formulación bayesiana tiende a funcionar mejor en pequeños conjuntos de datos porque los métodos Bayesianos pueden evitar la superposición de los datos. Para conjuntos de datos muy grandes, los resultados de los dos modelos tienden a converger. Una diferencia es que pLSA utiliza una variable para representar un documento en el conjunto de capacitación. Así que en pLSA, cuando se presenta con un documento que el modelo no ha visto antes, arreglamos —la probabilidad de que las palabras bajo temas— sean las que aprendieron del conjunto de entrenamiento y usen el mismo algoritmo EM para inferir - la distribución de temas bajo . Blei argumenta que este paso es engañar porque usted está esencialmente reajustando el modelo a los nuevos datos.

Modelos espaciales

En biología evolutiva, suele ser natural suponer que las ubicaciones geográficas de los individuos observados aportan cierta información sobre su ascendencia. Esta es la razón de ser de varios modelos para datos genéticos georreferenciados.

Se han utilizado variaciones de LDA para clasificar automáticamente imágenes naturales en categorías, como "dormitorio" o "bosque", tratando una imagen como un documento y pequeñas partes de la imagen como palabras; una de las variaciones se denomina asignación de Dirichlet latente espacial.

Véase también

  • Variational Bayesian methods
  • Pachinko allocation
  • tf-idf
  • Infer.NET

Referencias

  1. ^ a b Pritchard, J. K.; Stephens, M.; Donnelly, P. (junio de 2000). "Inferencia de estructura poblacional utilizando datos genotipos multilocus". Genética. 155 2): pp. 945–959. doi:10.1093/genetics/155.2.945. ISSN 0016-6731. PMC 1461096. PMID 10835412.
  2. ^ Falush, D.; Stephens, M.; Pritchard, J. K. (2003). "Inferencia de estructura poblacional utilizando datos genotipos multilocus: loci vinculada y frecuencias de alelos correlacionados". Genética. 164 4): pp. 1567–1587. doi:10.1093/genetics/164.4.1567. PMC 1462648. PMID 12930761.
  3. ^ a b c Blei, David M.; Ng, Andrew Y.; Jordan, Michael I (enero de 2003). Lafferty, John (ed.). "Latent Dirichlet Allocation". Journal of Machine Learning Research. 3 (4–5): pp. 993–1022. doi:10.1162/jmlr.2003.3.4-5.993. Archivado desde el original el 2012-05-01. Retrieved 2006-12-19.
  4. ^ Chiu, Kin; Clark, David; Leigh, Eleanor (Julio 2022). "Caracterizando la imagen mental negativa en la ansiedad social adolescente". Terapia cognitiva e investigación. 46 (5): 956–966. doi:10.1007/s10608-022-10316-x. PMC 9492563. PMID 36156987.
  5. ^ Parker, Maria A.; Valdez, Danny; Rao, Varun K.; Eddens, Katherine S.; Agley, Jon (2023). "Resultados e implicaciones metodológicas de la Epidemiología Digital de las Referencias de Medicamentos de Prescripción Entre los Usuarios de Twitter: Asignación de Dirichos Latente (LDA) Analiza". Journal of Medical Internet Research. 25 (1): e48405. doi:10.2196/48405. PMC 10422173PMID 37505795. S2CID 260246078.
  6. ^ Lieck, Robert; Moss, Fabian C.; Rohrmeier, Martin (octubre 2020). "El Modelo de Difusión Tonal". Transacciones de la Sociedad Internacional de Información Musical. 3 1): pp. 153–164. doi:10.5334/tismir.46. S2CID 225158478.
  7. ^ Girolami, Mark; Kaban, A. (2003). Equivalencia entre PLSI y LDA. Proceedings of SIGIR 2003. New York: Association for Computing Machinery. ISBN 1-58113-646-3.
  8. ^ Griffiths, Thomas L.; Steyvers, Mark (6 de abril de 2004). "Encontrando temas científicos". Actas de la Academia Nacional de Ciencias. 101 (Suplemento 1): 5228–5235. Código:2004PNAS.101.5228G. doi:10.1073/pnas.0307752101. PMC 387300. PMID 14872004.
  9. ^ Alexander, David H.; Novembre, John; Lange, Kenneth (2009). "Estimación basada en modelos anteriores de la ascendencia en individuos no relacionados". Genome Research. 19 (9): 1655–1664. doi:10.1101/gr.094052.109. PMC 2752134. PMID 19648217.
  10. ^ a b Guillot, G.; Estoup, A.; Mortier, F.; Cosson, J. (2005). "Un modelo estadístico espacial para la genética paisajística". Genética. 170 3): pp. 1261–1280. doi:10.1534/genetics.104.033803. PMC 1451194. PMID 15520263.
  11. ^ Minka, Thomas; Lafferty, John (2002). Expectativa-propagación para el modelo de aspecto generativo (PDF). Proceedings of the 18th Conference on Uncertainty in Artificial Intelligence. San Francisco, CA: Morgan Kaufmann. ISBN 1-55860-897-4.
  12. ^ Yao, Limin; Mimno, David; McCallum, Andrew (2009). Métodos eficientes para la inferencia del modelo de tema en la secuencia de colecciones de documentos. 15a Conferencia internacional ACM SIGKDD sobre descubrimiento de conocimientos y extracción de datos.
  13. ^ Lamba, Manika; Madhusudhan, Margam (2019). "Mapping of topics in DESIDOC Journal of Library and Information Technology, India: a study". Ciencimetría. 120 (2): 477–505. doi:10.1007/s11192-019-03137-5. S2CID 174802673.
  14. ^ Blei, David M.; Lafferty, John D. (2005). "Modelos de temas relacionados" (PDF). Avances en sistemas de procesamiento de información neuronal. 18.
  15. ^ Blei, David M.; Jordan, Michael I.; Griffiths, Thomas L.; Tenenbaum, Joshua B (2004). Modelos temáticos jerárquicos y el proceso de restaurante chino anidado (PDF). Avances en sistemas de procesamiento de información neuronal 16: Actas de la Conferencia de 2003. MIT Prensa. ISBN 0-262-20152-6.
  16. ^ Shu, Liangcai; Long, Bo; Meng, Weiyi (2009). Un modelo de tema latente para la resolución completa de la Entidad (PDF)25a Conferencia Internacional del IEEE sobre Ingeniería de Datos (ICDE 2009).
  17. ^ Guillot, G.; Leblois, R.; Coulon, A.; Frantz, A. (2009). "Métodos estadísticos en genética espacial". Ecología molecular. 18 (23): pp. 4734-4756. doi:10.1111/j.1365-294X.2009.04410.x. PMID 19878454.
  18. ^ Li, Fei-Fei; Perona, Pietro. "A Bayesian Hierarchical Model for Learning Natural Scene Categories". Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05). 2: 524-531.
  19. ^ Wang, Xiaogang; Grimson, Eric (2007). "Asignación espacial de dirichlet" (PDF). Proceedings of Neural Information Processing Systems Conference (NIPS).
  • jLDADMM Un paquete Java para modelar temas en textos normales o cortos. jLDADMM incluye las implementaciones del modelo de tema LDA y el un tema por documento Dirichlet Multinomial Mixture model. jLDADMM también proporciona una implementación para la evaluación de agrupación de documentos para comparar modelos de temas.
  • STTM A Java package for short text topic modeling (https://github.com/qiang2100/STTM). STPUTM incluye estos siguientes algoritmos: Dirichlet Multinomial Mixture (DMM) en la conferencia KDD2014, Biterm Topic Model (BTM) en la revista TKDE2016, Word Network Topic Model (WNTM) en la revista KAIS2018, Pseudo-Document-Based Topic Model (PTM) en la conferencia KDD2015 STTM también incluye seis corpus de texto corto para la evaluación. STTM presenta tres aspectos sobre cómo evaluar el rendimiento de los algoritmos (es decir, coherencia de temas, agrupación y clasificación).
  • Conferencia que cubre algunas de las notaciones en este artículo: LDA y Modelado Tópico Video Conferencia de David Blei o misma conferencia en YouTube
  • D. Bibliografía de LDA de Mimno Una lista exhaustiva de los recursos relacionados con el LDA (incl. documentos y algunas implementaciones)
  • Gensim, un Python+NumPy aplicación de LDA en línea para entradas más grandes que la RAM disponible.
  • tópicos y lda son dos paquetes R para el análisis de LDA.
  • MALLET Paquete basado en Java de código abierto de la Universidad de Massachusetts-Amherst para modelar temas con LDA, también tiene un GUI desarrollado independientemente, la herramienta de modelado de tema
  • LDA en Mahout implementación de LDA utilizando MapReduce en la plataforma Hadoop
  • Latent Dirichlet Allocation (LDA) Tutorial for the Infer. Marco de computación de máquinas NET Microsoft Research C# Machine Learning Framework
  • LDA en Spark: Desde la versión 1.3.0, Apache Spark también cuenta con una implementación de LDA
  • LDA, exampleLDA Aplicación del MATLAB
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save