Sociología computacional

Compartir Imprimir Citar

La sociología computacional es una rama de la sociología que utiliza métodos computacionalmente intensivos para analizar y modelar fenómenos sociales. Usando simulaciones por computadora, inteligencia artificial, métodos estadísticos complejos y enfoques analíticos como el análisis de redes sociales, la sociología computacional desarrolla y prueba teorías de procesos sociales complejos a través de modelos ascendentes de interacciones sociales.

Implica la comprensión de los agentes sociales, la interacción entre estos agentes y el efecto de estas interacciones en el agregado social. Aunque el tema y las metodologías de las ciencias sociales difieren de los de las ciencias naturales o la informática, varios de los enfoques utilizados en la simulación social contemporánea se originaron en campos como la física y la inteligencia artificial. Algunos de los enfoques que se originaron en este campo se han importado a las ciencias naturales, como las medidas de centralidad de la red de los campos del análisis de redes sociales y la ciencia de redes.

En la literatura relevante, la sociología computacional a menudo se relaciona con el estudio de la complejidad social. Conceptos de complejidad social tales como sistemas complejos, interconexión no lineal entre procesos macro y micro y emergencia, han entrado en el vocabulario de la sociología computacional. Un ejemplo práctico y bien conocido es la construcción de un modelo computacional en forma de "sociedad artificial", mediante el cual los investigadores pueden analizar la estructura de un sistema social.

Historia

Fondo

En las últimas cuatro décadas, la sociología computacional se ha introducido y ha ganado popularidad. Esto se ha utilizado principalmente para modelar o construir explicaciones de procesos sociales y dependen del surgimiento de comportamientos complejos a partir de actividades simples. La idea detrás de la emergencia es que las propiedades de cualquier sistema más grande no siempre tienen que ser propiedades de los componentes de los que está hecho el sistema. Alexander, Morgan y Broad, emergentistas clásicos, introdujeron la idea de emergencia a principios del siglo XX. El objetivo de este método era encontrar un acomodo suficientemente bueno entre dos ontologías diferentes y extremas, que eran el materialismo reduccionista y el dualismo.

Si bien la emergencia ha tenido un papel valioso e importante con la fundación de la Sociología Computacional, hay quienes no necesariamente están de acuerdo. Un líder importante en el campo, Epstein, dudó del uso porque había aspectos que son inexplicables. Epstein hizo un reclamo contra el emergentismo, en el que dice que "es precisamente la suficiencia generativa de las partes lo que constituye la explicación del todo".

Los modelos basados ​​en agentes han tenido una influencia histórica en la Sociología Computacional. Estos modelos aparecieron por primera vez en la década de 1960 y se utilizaron para simular procesos de control y retroalimentación en organizaciones, ciudades, etc. Durante la década de 1970, la aplicación introdujo el uso de individuos como unidades principales para los análisis y utilizó estrategias de abajo hacia arriba para comportamientos de modelado. La última ola se produjo en la década de 1980. En ese momento, los modelos todavía eran de abajo hacia arriba; la única diferencia es que los agentes interactúan de manera interdependiente.

Teoría de sistemas y funcionalismo estructural

En la era de la posguerra, el analizador diferencial de Vannevar Bush, los autómatas celulares de John von Neumann, la cibernética de Norbert Wiener y la teoría de la información de Claude Shannon se convirtieron en paradigmas influyentes para modelar y comprender la complejidad de los sistemas técnicos. En respuesta, los científicos de disciplinas como la física, la biología, la electrónica y la economía comenzaron a articular una teoría general de sistemas en la que todos los fenómenos naturales y físicos son manifestaciones de elementos interrelacionados en un sistema que tiene patrones y propiedades comunes. Siguiendo el llamado de Émile Durkheim a analizar la sociedad moderna compleja sui generis,Los sociólogos funcionalistas estructurales de la posguerra, como Talcott Parsons, aprovecharon estas teorías de interacción sistemática y jerárquica entre los componentes constituyentes para intentar generar grandes teorías sociológicas unificadas, como el paradigma AGIL. Sociólogos como George Homans argumentaron que las teorías sociológicas deberían formalizarse en estructuras jerárquicas de proposiciones y terminología precisa a partir de la cual se pudieran derivar y operacionalizar otras proposiciones e hipótesis en estudios empíricos. Debido a que los algoritmos y programas informáticos se habían utilizado ya en 1956 para probar y validar teoremas matemáticos, como el teorema de los cuatro colores,algunos académicos anticiparon que enfoques computacionales similares podrían "resolver" y "probar" problemas y teoremas de estructuras y dinámicas sociales formalizados de manera análoga.

Macrosimulación y microsimulación

A fines de la década de 1960 y principios de la de 1970, los científicos sociales utilizaron tecnología informática cada vez más disponible para realizar macrosimulaciones de procesos de control y retroalimentación en organizaciones, industrias, ciudades y poblaciones globales. Estos modelos utilizaron ecuaciones diferenciales para predecir la distribución de la población como funciones holísticas de otros factores sistemáticos, como el control de inventario, el tráfico urbano, la migración y la transmisión de enfermedades. Aunque las simulaciones de sistemas sociales recibieron una atención sustancial a mediados de la década de 1970 después de que el Club de Roma publicara informes que predecían que las políticas que promueven el crecimiento económico exponencial eventualmente traerían una catástrofe ambiental global,las conclusiones inconvenientes llevaron a muchos autores a buscar desacreditar los modelos, intentando hacer que los propios investigadores parecieran no científicos. Con la esperanza de evitar el mismo destino, muchos científicos sociales dirigieron su atención hacia los modelos de microsimulación para hacer pronósticos y estudiar los efectos de las políticas al modelar los cambios agregados en el estado de las entidades a nivel individual en lugar de los cambios en la distribución a nivel de la población. Sin embargo, estos modelos de microsimulación no permitían que los individuos interactuaran o se adaptaran y no estaban destinados a la investigación teórica básica.

Autómatas celulares y modelado basado en agentes

Las décadas de 1970 y 1980 también fueron una época en la que físicos y matemáticos intentaban modelar y analizar cómo las unidades de componentes simples, como los átomos, dan lugar a propiedades globales, como propiedades de materiales complejos a bajas temperaturas, en materiales magnéticos y dentro de flujos turbulentos.. Usando autómatas celulares, los científicos pudieron especificar sistemas que consisten en una cuadrícula de celdas en las que cada celda solo ocupa algunos estados finitos y los cambios entre estados se rigen únicamente por los estados de los vecinos inmediatos. Junto con los avances en la inteligencia artificial y el poder de las microcomputadoras, estos métodos contribuyeron al desarrollo de la "teoría del caos" y la "teoría de la complejidad" que, a su vez, renovaron el interés por comprender los sistemas físicos y sociales complejos a través de las fronteras disciplinarias.En esta era también se fundaron organizaciones de investigación explícitamente dedicadas al estudio interdisciplinario de la complejidad: el Instituto Santa Fe fue establecido en 1984 por científicos del Laboratorio Nacional de Los Álamos y el grupo BACH de la Universidad de Michigan también comenzó a mediados de la década de 1980.

Este paradigma de autómatas celulares dio lugar a una tercera ola de simulación social que enfatiza el modelado basado en agentes. Al igual que las microsimulaciones, estos modelos enfatizaron los diseños de abajo hacia arriba pero adoptaron cuatro supuestos clave que divergieron de la microsimulación: autonomía, interdependencia, reglas simples y comportamiento adaptativo. Los modelos basados ​​en agentes están menos preocupados por la precisión predictiva y, en cambio, enfatizan el desarrollo teórico. En 1981, el matemático y politólogo Robert Axelrod y el biólogo evolutivo WD Hamilton publicaron un importante artículo en Science.titulado "La evolución de la cooperación", que utilizó un enfoque de modelado basado en agentes para demostrar cómo se puede establecer y estabilizar la cooperación social basada en la reciprocidad en el juego del dilema del prisionero cuando los agentes siguen reglas simples de interés propio. Axelrod y Hamilton demostraron que los agentes individuales que siguen un conjunto de reglas simples de (1) cooperan en el primer turno y (2) luego replican la acción previa del compañero fueron capaces de desarrollar "normas" de cooperación y sanción en ausencia de construcciones sociológicas canónicas tales como como la demografía, los valores, la religión y la cultura como condiciones previas o mediadores de la cooperación.A lo largo de la década de 1990, académicos como William Sims Bainbridge, Kathleen Carley, Michael Macy y John Skvoretz desarrollaron modelos basados ​​en múltiples agentes de reciprocidad generalizada, prejuicio, influencia social y procesamiento de información organizacional. En 1999, Nigel Gilbert publicó el primer libro de texto sobre Simulación Social: Simulación para el científico social y estableció su revista más relevante: Journal of Artificial Societies and Social Simulation.

Minería de datos y análisis de redes sociales

Independientemente de la evolución de los modelos computacionales de los sistemas sociales, el análisis de redes sociales surgió en las décadas de 1970 y 1980 a partir de los avances en la teoría de grafos, la estadística y los estudios de la estructura social como un método analítico distinto y fue articulado y empleado por sociólogos como James S. Coleman, Harrison White, Linton Freeman, J. Clyde Mitchell, Mark Granovetter, Ronald Burt y Barry Wellman.La creciente omnipresencia de las tecnologías informáticas y de telecomunicaciones durante las décadas de 1980 y 1990 exigió técnicas analíticas, como el análisis de redes y el modelado multinivel, que pudieran escalar a conjuntos de datos cada vez más complejos y grandes. La ola más reciente de sociología computacional, en lugar de emplear simulaciones, utiliza análisis de redes y técnicas estadísticas avanzadas para analizar bases de datos informáticas a gran escala de proxies electrónicos para datos de comportamiento. Los registros electrónicos, como correos electrónicos y registros de mensajes instantáneos, hipervínculos en la World Wide Web, uso de teléfonos móviles y debates en Usenet, permiten a los científicos sociales observar y analizar directamente el comportamiento social en múltiples puntos en el tiempo y múltiples niveles de análisis sin las limitaciones de los métodos tradicionales. métodos empíricos como entrevistas, observación participante,Las mejoras continuas en los algoritmos de aprendizaje automático también han permitido a los científicos sociales y empresarios utilizar técnicas novedosas para identificar patrones latentes y significativos de interacción social y evolución en grandes conjuntos de datos electrónicos.

El análisis automático de corpus textuales ha permitido la extracción de actores y sus redes relacionales a gran escala, convirtiendo datos textuales en datos de red. Las redes resultantes, que pueden contener miles de nodos, luego se analizan utilizando herramientas de la teoría de redes para identificar a los actores clave, las comunidades o partes clave y las propiedades generales, como la solidez o la estabilidad estructural de la red general, o la centralidad de ciertos nodos. Esto automatiza el enfoque introducido por el análisis narrativo cuantitativo, por el cual los tripletes sujeto-verbo-objeto se identifican con pares de actores vinculados por una acción, o pares formados por actor-objeto.

Análisis de contenido computacional

El análisis de contenido ha sido una parte tradicional de las ciencias sociales y los estudios de medios durante mucho tiempo. La automatización del análisis de contenidos ha permitido que se produzca una revolución del "big data" en ese campo, con estudios en redes sociales y contenidos periodísticos que incluyen millones de noticias. El sesgo de género, la legibilidad, la similitud del contenido, las preferencias del lector e incluso el estado de ánimo se han analizado en función de métodos de minería de texto en millones de documentos. El análisis de legibilidad, sesgo de género y sesgo de tema se demostró en Flaounas et al. mostrando cómo diferentes temas tienen diferentes sesgos de género y niveles de legibilidad; También se demostró la posibilidad de detectar cambios de humor en una gran población mediante el análisis del contenido de Twitter.

El análisis de grandes cantidades de contenido de periódicos históricos ha sido iniciado por Dzogang et al., que mostró cómo las estructuras periódicas pueden descubrirse automáticamente en los periódicos históricos. Se realizó un análisis similar en las redes sociales, que nuevamente reveló estructuras fuertemente periódicas.

Desafíos

La sociología computacional, como cualquier campo de estudio, enfrenta una serie de desafíos. Estos desafíos deben manejarse de manera significativa para lograr el máximo impacto en la sociedad.

Niveles y sus interacciones.

Cada sociedad que se forma tiende a estar en un nivel u otro y existen tendencias de interacciones entre y a través de estos niveles. Los niveles no solo tienen que ser de naturaleza micro o macro. Puede haber niveles intermedios en los que existe una sociedad, digamos: grupos, redes, comunidades, etc.

Sin embargo, surge la pregunta de cómo identificar estos niveles y cómo llegan a existir. Y una vez que existen, ¿cómo interactúan dentro de sí mismos y con otros niveles?

Si vemos las entidades (agentes) como nodos y las conexiones entre ellos como bordes, vemos la formación de redes. Las conexiones en estas redes no se dan en base a relaciones meramente objetivas entre las entidades, sino que se deciden por factores elegidos por las entidades participantes. El desafío con este proceso es que es difícil identificar cuándo un conjunto de entidades formará una red. Estas redes pueden ser redes de confianza, redes de cooperación, redes de dependencia, etc. Ha habido casos en los que un conjunto heterogéneo de entidades ha demostrado formar redes sólidas y significativas entre ellas.

Como se discutió anteriormente, las sociedades caen en niveles y en uno de esos niveles, el nivel individual, un enlace micro-macro se refiere a las interacciones que crean niveles superiores. Hay una serie de preguntas que deben responderse con respecto a estos enlaces Micro-Macro. ¿Cómo se forman? ¿Cuándo convergen? ¿Qué es la retroalimentación empujada a los niveles inferiores y cómo se empujan?

Otro desafío importante en esta categoría se refiere a la validez de la información y sus fuentes. En los últimos años se ha producido un auge en la recopilación y el procesamiento de la información. Sin embargo, se prestó poca atención a la difusión de información falsa entre las sociedades. Rastrear las fuentes y encontrar la propiedad de dicha información es difícil.

Modelado de cultura

La evolución de las redes y niveles en la sociedad trae consigo la diversidad cultural. Sin embargo, un pensamiento que surge es que, cuando las personas tienden a interactuar y aceptan más otras culturas y creencias, ¿cómo es que la diversidad aún persiste? ¿Por qué no hay convergencia? Un gran desafío es cómo modelar estas diversidades. ¿Existen factores externos como los medios de comunicación, la localidad de las sociedades, etc. que influyan en la evolución o persistencia de las diversidades culturales?

Experimentación y evaluación

Cualquier estudio o modelo, cuando se combina con la experimentación, debe poder abordar las preguntas que se formulan. Las ciencias sociales computacionales se ocupan de datos a gran escala y el desafío se vuelve mucho más evidente a medida que crece la escala. ¿Cómo se diseñarían simulaciones informativas a gran escala? E incluso si se presenta una simulación a gran escala, ¿cómo se supone que se realizará la evaluación?

Elección del modelo y complejidades del modelo

Otro desafío es identificar los modelos que mejor se ajusten a los datos y las complejidades de estos modelos. Estos modelos nos ayudarían a predecir cómo podrían evolucionar las sociedades con el tiempo y brindarían posibles explicaciones sobre cómo funcionan las cosas.

Modelos generativos

Los modelos generativos nos ayudan a realizar análisis cualitativos extensos de manera controlada. Un modelo propuesto por Epstein, es la simulación basada en agentes, que habla de identificar un conjunto inicial de entidades heterogéneas (agentes) y observar su evolución y crecimiento en base a reglas locales simples.

Pero, ¿cuáles son estas reglas locales? ¿Cómo identificarlos para un conjunto de agentes heterogéneos? La evaluación y el impacto de estas reglas plantean un nuevo conjunto de dificultades.

Modelos heterogéneos o de conjunto

La integración de modelos simples que funcionan mejor en tareas individuales para formar un modelo híbrido es un enfoque que se puede analizar. Estos modelos pueden ofrecer un mejor rendimiento y comprensión de los datos. Sin embargo, la compensación de identificar y tener una comprensión profunda de las interacciones entre estos modelos simples surge cuando se necesita crear un modelo combinado que funcione bien. Además, crear herramientas y aplicaciones para ayudar a analizar y visualizar los datos basados ​​en estos modelos híbridos es otro desafío adicional.

Impacto

La sociología computacional puede traer impactos a la ciencia, la tecnología y la sociedad.

Impacto en la ciencia

Para que el estudio de la sociología computacional sea efectivo, tiene que haber innovaciones valiosas. Estas innovaciones pueden adoptar la forma de nuevas herramientas de análisis de datos, mejores modelos y algoritmos. El advenimiento de tal innovación supondrá un auge para la comunidad científica en general.

Impacto en la sociedad

Uno de los mayores desafíos de la sociología computacional es el modelado de procesos sociales. Varios legisladores y legisladores podrían ver caminos eficientes y efectivos para emitir nuevas pautas y la masa en general podría evaluar y obtener una comprensión justa de las opciones presentadas frente a ellos, lo que permitiría un proceso de decisión abierto y bien equilibrado..