Variedad (cibernética)
En cibernética, el término variedad denota el número total de elementos distinguibles de un conjunto, más a menudo el conjunto de estados, entradas o salidas de una máquina o transformación de estado finito, o el logaritmo binario de la misma cantidad. La variedad se utiliza en cibernética como una teoría de la información que se relaciona fácilmente con autómatas finitos deterministas y, de manera menos formal, como una herramienta conceptual para pensar en la organización, la regulación y la estabilidad. Es una teoría temprana de la complejidad en autómatas, sistemas complejos e investigación de operaciones.
Visión general
El término "variedad" fue introducido por W. Ross Ashby para ampliar su análisis de las máquinas a su conjunto de posibles comportamientos. Ashby dice:
La palabra variedad , en relación con un conjunto de elementos distinguibles, se utilizará para significar (i) el número de elementos distintos, o (ii) el logaritmo en base 2 del número, indicando el contexto el sentido utilizado.
En el segundo caso, la variedad se mide en bits. Por ejemplo, una máquina con estados tiene una variedad de cuatro estados o dos bits. La variedad de una secuencia o conjunto múltiple es el número de símbolos distintos en ella. Por ejemplo, la secuencia tiene una variedad de cuatro. Como medida de incertidumbre, la variedad está directamente relacionada con la información: .
Dado que el número de elementos distinguibles depende tanto del observador como del conjunto, "el observador y sus poderes de discriminación pueden tener que especificarse si se quiere que la variedad esté bien definida". Gordon Pask distinguió entre la variedad del marco de referencia elegido y la variedad del sistema que el observador construye dentro del marco de referencia. El marco de referencia consta de un espacio de estados y el conjunto de medidas disponibles para el observador, que tienen variedad total , donde es el número de estados en el espacio de estados. El sistema que construye el observador comienza con la variedad completa, que se reduce a medida que el observador pierde incertidumbre sobre el estado al aprender a predecir el sistema. Si el observador puede percibir el sistema como una máquina determinista en el marco de referencia dado, la observación puede reducir la variedad a cero a medida que la máquina se vuelve completamente predecible.
Las leyes de la naturaleza restringen la variedad de fenómenos al prohibir ciertos comportamientos. Ashby hizo dos observaciones que consideró leyes de la naturaleza, la ley de la experiencia y la ley de la variedad requerida. La ley de la experiencia sostiene que las máquinas bajo la entrada tienden a perder información sobre su estado original, y la ley de la variedad requerida establece una condición necesaria, aunque no suficiente, para que un regulador ejerza un control anticipado respondiendo a su entrada actual (en lugar de la salida anterior como en la regulación controlada por error).
Ley de la experiencia
La ley de la experiencia se refiere a la observación de que la variedad de estados exhibidos por una máquina determinista aisladamente no puede aumentar, y un conjunto de máquinas idénticas alimentadas con las mismas entradas no puede exhibir una variedad creciente de estados y, en cambio, tiende a sincronizarse.
Es necesario algún nombre con el que se pueda hacer referencia a este fenómeno. La llamaré la ley de la Experiencia. Puede describirse más vívidamente mediante la declaración de que la información introducida por el cambio en un parámetro tiende a destruir y reemplazar la información sobre el estado inicial del sistema.
Esta es una consecuencia de la decadencia de la variedad: una transformación determinista no puede aumentar la variedad de un conjunto. Como resultado, la incertidumbre de un observador sobre el estado de la máquina permanece constante o disminuye con el tiempo. Ashby muestra que esto también se aplica a las máquinas con entradas. Bajo cualquier entrada constante , los estados de las máquinas se mueven hacia cualquier atractor que exista en la transformación correspondiente y algunos pueden sincronizarse en estos puntos. Si la entrada cambia a alguna otra entrada y el comportamiento de las máquinas representa una transformación diferente, más de uno de estos atractores puede sentarse en la misma cuenca de atracción bajo . Los estados que llegaron y posiblemente se sincronizaron en esos atractores bajo luego sincronizan más bajo. "En otras palabras", dice Ashby, "los cambios en la entrada de un transductor tienden a hacer que el estado del sistema (en un momento dado) dependa menos del estado inicial individual del transductor y más de la secuencia particular de valores de parámetros utilizados como aporte."
Si bien existe una ley de no aumento, solo hay una tendencia a la disminución, ya que la variedad puede mantenerse constante sin disminuir si el conjunto sufre una transformación de uno a uno, o si los estados se han sincronizado en un subconjunto para el cual este es el caso. En el análisis del lenguaje formal de máquinas finitas, una secuencia de entrada que sincroniza máquinas idénticas (sin importar la variedad de sus estados iniciales) se denomina palabra de sincronización.
Ley de la variedad requerida
Ashby usó la variedad para analizar el problema de la regulación al considerar un juego de dos jugadores, donde un jugador, proporciona perturbaciones que otro jugador , debe regular para asegurar resultados aceptables. y cada uno tiene un conjunto de movimientos disponibles, que eligen el resultado de una tabla con tantas filas como movimientos y tantas columnas como movimientos. se le permite pleno conocimiento de la jugada de y debe elegir jugadas en respuesta para que el resultado sea aceptable.
Dado que muchos juegos no presentan dificultad para , la tabla se elige de modo que ningún resultado se repita en ninguna columna, lo que asegura que en el juego correspondiente cualquier cambio en el movimiento de 's significa un cambio en el resultado, a menos que tenga un movimiento para evitar que el resultado cambiando. Con esta restricción, si nunca cambia los movimientos, el resultado depende totalmente de la elección de, mientras que si hay varios movimientos disponibles , puede reducir la variedad de resultados, si la tabla lo permite, dividiéndolos tanto como su propia variedad de movimientos.
La ley de la variedad requerida es que una estrategia determinista para puede, en el mejor de los casos, limitar la variedad de resultados a , y solo agregar variedad en los movimientos de puede reducir la variedad de resultados: " solo la variedad puede destruir la variedad ". Por ejemplo, en la tabla anterior, tiene una estrategia (mostrada en negrita) para reducir la variedad de resultados a , que es en este caso.
No es posible reducir más los resultados y seguir respondiendo a todos los movimientos potenciales de , pero es posible que otra mesa de la misma forma no permita hacerlo tan bien. La variedad requerida es necesaria, pero no suficiente para controlar los resultados. Si y son máquinas, no pueden elegir más movimientos que estados. Por lo tanto, un regulador perfecto debe tener al menos tantos estados distinguibles como el fenómeno que pretende regular (la mesa debe ser cuadrada o más ancha).
Dicho en bits, la ley es . En la teoría de la información de Shannon , , y son fuentes de información. La condición de que si nunca cambia el movimiento, la incertidumbre en los resultados no es menor que la incertidumbre en el movimiento se expresa como , y dado que la estrategia de es una función determinista del conjunto . Con las reglas del juego expresadas de esta manera, se puede demostrar que . Ashby describió la ley de la variedad requerida en relación con el décimo teorema de la Teoría matemática de la comunicación de Shannon (1948):
Esta ley (de la cual el teorema 10 de Shannon relativo a la supresión del ruido es un caso especial) dice que si un regulador evita que cierta cantidad de perturbación alcance algunas variables esenciales, entonces ese regulador debe ser capaz de ejercer al menos esa cantidad de selección
Ashby vio esta ley como relevante para problemas en biología como la homeostasis y una "riqueza de posibles aplicaciones". Más tarde, en 1970, Conant, trabajando con Ashby, produjo el teorema del buen regulador que requería que los sistemas autónomos adquirieran un modelo interno de su entorno para persistir y alcanzar la estabilidad (por ejemplo, el criterio de estabilidad de Nyquist) o el equilibrio dinámico.
Boisot y McKelvey actualizaron esta ley a la "ley de la complejidad requerida", que sostiene que, para ser eficaz en la adaptación, la complejidad interna de un sistema debe coincidir con la complejidad externa que enfrenta. Otra aplicación práctica de esta ley es la opinión de que la alineación de los sistemas de información (SI) es un proceso coevolutivo continuo que reconcilia los "diseños racionales" de arriba hacia abajo y los "procesos emergentes" de abajo hacia arriba de interrelacionar consciente y coherentemente todos los componentes del negocio. Relaciones de SI para contribuir al desempeño de una organización a lo largo del tiempo.
La aplicación en la gestión de proyectos de la ley de la complejidad requerida es el modelo de complejidad positiva, apropiada y negativa propuesto por Stefan Morcov.
Aplicaciones
Las aplicaciones a la organización y la gestión fueron inmediatamente evidentes para Ashby. Una implicación es que los individuos tienen una capacidad finita para procesar información, y más allá de este límite lo que importa es la organización entre los individuos.
Así, la limitación que se impone a un equipo de n hombres puede ser mucho mayor, tal vez n veces mayor, que la limitación que se impone al hombre individual. Sin embargo, para hacer uso del límite superior, el equipo debe estar organizado de manera eficiente; y hasta hace poco nuestra comprensión de la organización ha sido lastimosamente pequeña.
Stafford Beer retomó este análisis en sus escritos sobre cibernética gerencial. Beer define la variedad como "el número total de estados posibles de un sistema, o de un elemento de un sistema". Beer reafirma la Ley de Variedad Requerida como "La variedad absorbe la variedad". Expresado de manera más simple, la medida logarítmica de la variedad representa el número mínimo de opciones (por división binaria) necesarias para resolver la incertidumbre. Beer utilizó esto para asignar los recursos de gestión necesarios para mantener la viabilidad del proceso.
El cibernético Frank George habló sobre la variedad de equipos que compiten en juegos como el fútbol o el rugby para producir goles o intentos. Se podría decir que un jugador de ajedrez ganador tiene más variedad que su oponente perdedor. Aquí está implícito un orden simple. La atenuación y amplificación de la variedad fueron temas principales en el trabajo de Stafford Beer en la gestión (la profesión de control, como él la llamó). La cantidad de personal necesario para atender teléfonos, controlar aglomeraciones o atender pacientes son claros ejemplos.
La aplicación de señales naturales y analógicas al análisis de variedades requiere una estimación de los "poderes de discriminación" de Ashby (ver cita anterior). Dado el efecto mariposa de los sistemas dinámicos, se debe tener cuidado antes de poder producir medidas cuantitativas. Pequeñas cantidades, que pueden pasarse por alto, pueden tener grandes efectos. En su Designing Freedom, Stafford Beer analiza al paciente en un hospital con una temperatura que denota fiebre. Se deben tomar medidas inmediatamente para aislar al paciente. Aquí, ninguna cantidad de variedad que registre la temperatura promedio de los pacientes detectaría esta pequeña señal que podría tener un gran efecto. Se requiere un seguimiento de los individuos, lo que amplía la variedad (ver alertas de Algedonicen el modelo de sistema viable o VSM). El trabajo de Beer en cibernética de gestión y VSM se basa en gran medida en la ingeniería de variedades.
Otras aplicaciones que involucran la visión de Ashby del conteo de estados incluyen el análisis de los requisitos de ancho de banda digital, la redundancia y la sobrecarga de software, la representación de bits de los tipos e índices de datos, la conversión analógica a digital, los límites en las máquinas de estados finitos y la compresión de datos. Véase también, por ejemplo, Estado excitado, Estado (informática), Patrón de estado, Estado (controles) y Autómata celular. La variedad requerida se puede ver en la teoría de la información algorítmica de Chaitin, donde un programa de mayor variedad o una máquina de estados finitos produce una salida incompresible con más variedad o contenido de información.
En general, se establece una descripción de las entradas y salidas requeridas y luego se codifica con la variedad mínima necesaria. El mapeo de bits de entrada a bits de salida puede entonces producir una estimación de los componentes mínimos de hardware o software necesarios para producir el comportamiento de control deseado; por ejemplo, en una pieza de software o hardware de computadora.
La variedad es uno de los nueve requisitos exigidos por un regulador ético.
Contenido relacionado
Tony hoare
Glosario de la teoría de grafos
CD-R