Información

ImprimirCitar

La información es datos procesados, organizados y estructurados. Proporciona contexto para los datos y permite los procesos de toma de decisiones.

Por ejemplo, la venta de un solo cliente en un restaurante son datos; estos se convierten en información cuando la empresa puede identificar el plato más popular o menos popular.

Más técnicamente, se puede pensar en la información como la resolución de la incertidumbre que se manifiesta como patrones; responde a la pregunta de "Qué es una entidad" y así define tanto su esencia como la naturaleza de sus características. El concepto de información tiene diferentes significados en diferentes contextos. Así, el concepto se convierte en sinónimo de las nociones de restricción, comunicación, control, datos, forma, educación, conocimiento, significado, comprensión, estímulo mental, patrón, percepción, proposición, representación y entropía.

La información está asociada con los datos. La diferencia es que la información resuelve la incertidumbre. Los datos pueden representar símbolos redundantes, pero se acercan a la información a través de una compresión de datos óptima.

La información se puede transmitir en el tiempo, a través del almacenamiento de datos, y en el espacio, a través de la comunicación y las telecomunicaciones. La información se expresa ya sea como el contenido de un mensaje oa través de la observación directa o indirecta. Lo que se percibe puede interpretarse como un mensaje por derecho propio y, en ese sentido, la información siempre se transmite como el contenido de un mensaje.

La información puede codificarse en varias formas para su transmisión e interpretación (por ejemplo, la información puede codificarse en una secuencia de signos o transmitirse a través de una señal). También se puede cifrar para un almacenamiento y una comunicación seguros.

La incertidumbre de un evento se mide por su probabilidad de ocurrencia. La incertidumbre es inversamente proporcional a la probabilidad de ocurrencia. La teoría de la información aprovecha esto al concluir que los eventos más inciertos requieren más información para resolver su incertidumbre. El bit es una unidad típica de información. Es 'aquello que reduce la incertidumbre a la mitad'. Se pueden utilizar otras unidades como el nat. Por ejemplo, la información codificada en un lanzamiento de moneda "justo" es log 2 (2/1) = 1 bit, y en dos lanzamientos de moneda justos es log 2 (4/1) = 2 bits. Una ciencia de 2011El artículo estimó que el 97% de la información almacenada tecnológicamente ya estaba en bits digitales en 2007, y que el año 2002 fue el comienzo de la era digital para el almacenamiento de información (con la capacidad de almacenamiento digital superando a la analógica por primera vez).

Etimología

La palabra inglesa "información" proviene del francés medio enformacion/informacion/information 'una investigación criminal' y su etimo, latín informatiō(n) 'concepción, enseñanza, creación'.

En inglés, "información" es un sustantivo masivo incontable.

Teoría de la información

La teoría de la información es el estudio científico de la cuantificación, el almacenamiento y la comunicación de la información. El campo fue establecido fundamentalmente por los trabajos de Harry Nyquist y Ralph Hartley en la década de 1920 y Claude Shannon en la década de 1940. El campo se encuentra en la intersección de la teoría de la probabilidad, la estadística, la informática, la mecánica estadística, la ingeniería de la información y la ingeniería eléctrica.

Una medida clave en la teoría de la información es la entropía. La entropía cuantifica la cantidad de incertidumbre involucrada en el valor de una variable aleatoria o el resultado de un proceso aleatorio. Por ejemplo, identificar el resultado de un lanzamiento justo de una moneda (con dos resultados igualmente probables) proporciona menos información (menor entropía) que especificar el resultado de tirar un dado (con seis resultados igualmente probables). Algunas otras medidas importantes en la teoría de la información son la información mutua, la capacidad del canal, los exponentes de error y la entropía relativa. Los subcampos importantes de la teoría de la información incluyen la codificación de fuentes, la teoría de la complejidad algorítmica, la teoría de la información algorítmica y la seguridad de la teoría de la información.

Existe otra opinión respecto a la definición universal de información. Se encuentra en el hecho de que el concepto mismo ha cambiado junto con el cambio de varias épocas históricas, y para encontrar tal definición, es necesario encontrar características y patrones comunes de esta transformación. Por ejemplo, los investigadores en el campo de la información Petrichenko EA y Semenova VG, basándose en un análisis retrospectivo de los cambios en el concepto de información, dan la siguiente definición universal: "La información es una forma de transmisión de la experiencia humana (conocimiento)". En su opinión, el cambio en la esencia del concepto de información se produce después de varias tecnologías de vanguardia para la transferencia de experiencia (conocimiento), es decir, la aparición de la escritura, la imprenta, las primeras enciclopedias, el telégrafo, el desarrollo de la cibernética, la creación de un microprocesador, Internet, los teléfonos inteligentes, etc. Cada nueva forma de transferencia de experiencias es una síntesis de las anteriores. Es por eso que vemos tanta variedad de definiciones de información, porque, de acuerdo con la ley de la dialéctica "negación-negación", todas las ideas anteriores sobre la información están contenidas en una forma "filmada" y en su representación moderna.

Las aplicaciones de los temas fundamentales de la teoría de la información incluyen la codificación de fuentes/compresión de datos (p. ej., para archivos ZIP) y la codificación de canales/detección y corrección de errores (p. ej., para DSL). Su impacto ha sido crucial para el éxito de las misiones Voyager al espacio exterior, la invención del disco compacto, la viabilidad de los teléfonos móviles y el desarrollo de Internet. La teoría también ha encontrado aplicaciones en otras áreas, incluida la inferencia estadística, la criptografía, la neurobiología, la percepción, la lingüística, la evolución y función de los códigos moleculares (bioinformática), física térmica, computación cuántica, agujeros negros, recuperación de información, recopilación de inteligencia, detección de plagio., reconocimiento de patrones, detección de anomalías e incluso creación de arte.

Como entrada sensorial

A menudo, la información puede verse como un tipo de entrada a un organismo o sistema. Las entradas son de dos tipos; algunos insumos son importantes para la función del organismo (por ejemplo, los alimentos) o del sistema (energía) por sí mismos. En su libro Ecología sensorial, el biofísico David B. Dusenbery llamó a estas entradas causales. Otras entradas (información) son importantes solo porque están asociadas con entradas causales y se pueden usar para predecir la ocurrencia de una entrada causal en un momento posterior (y quizás en otro lugar). Parte de la información es importante debido a la asociación con otra información, pero eventualmente debe haber una conexión con una entrada causal.

En la práctica, la información suele ser transportada por estímulos débiles que deben ser detectados por sistemas sensoriales especializados y amplificados por entradas de energía antes de que puedan ser funcionales para el organismo o sistema. Por ejemplo, la luz es principalmente (pero no solo, por ejemplo, las plantas pueden crecer en la dirección de la fuente de luz) una entrada causal para las plantas, pero para los animales solo proporciona información. La luz de color reflejada por una flor es demasiado débil para la fotosíntesis, pero el sistema visual de la abeja la detecta y el sistema nervioso de la abeja usa la información para guiar a la abeja hacia la flor, donde la abeja a menudo encuentra néctar o polen, que son insumos causales., cumpliendo una función nutricional.

Como representación y complejidad

El científico cognitivo y matemático aplicado Ronaldo Vigo sostiene que la información es un concepto que requiere al menos dos entidades relacionadas para tener sentido cuantitativo. Estos son, cualquier categoría definida dimensionalmente de objetos S, y cualquiera de sus subconjuntos R. R, en esencia, es una representación de S o, en otras palabras, transmite información representacional (y, por lo tanto, conceptual) sobre S. Vigo luego define la cantidad de información que R transmite sobre S como la tasa de cambio en la complejidad de S cada vez que los objetos en R se eliminan de S. En "información de Vigo", patrón, invariancia, complejidad, representación e información: cinco construcciones fundamentales de ciencia universal—están unificados bajo un nuevo marco matemático.Entre otras cosas, el marco tiene como objetivo superar las limitaciones de la información de Shannon-Weaver al intentar caracterizar y medir la información subjetiva.

Como una influencia que lleva a la transformación

La información es cualquier tipo de patrón que influye en la formación o transformación de otros patrones. En este sentido, no hay necesidad de que una mente consciente perciba, y mucho menos aprecie, el patrón. Considere, por ejemplo, el ADN. La secuencia de nucleótidos es un patrón que influye en la formación y desarrollo de un organismo sin necesidad de una mente consciente. Sin embargo, se podría argumentar que para que un ser humano defina conscientemente un patrón, por ejemplo, un nucleótido, naturalmente implica un procesamiento consciente de la información.

La teoría de sistemas a veces parece referirse a la información en este sentido, asumiendo que la información no involucra necesariamente a ninguna mente consciente, y los patrones que circulan (debido a la retroalimentación) en el sistema pueden llamarse información. En otras palabras, se puede decir que la información en este sentido es algo potencialmente percibido como representación, aunque no creado o presentado para ese propósito. Por ejemplo, Gregory Bateson define "información" como una "diferencia que marca la diferencia".

Sin embargo, si la premisa de "influencia" implica que la información ha sido percibida por una mente consciente y también interpretada por ella, el contexto específico asociado con esta interpretación puede provocar la transformación de la información en conocimiento. Las definiciones complejas tanto de "información" como de "conocimiento" dificultan dicho análisis semántico y lógico, pero la condición de "transformación" es un punto importante en el estudio de la información en relación con el conocimiento, especialmente en la disciplina comercial de la gestión del conocimiento. En esta práctica, se utilizan herramientas y procesos para ayudar a un trabajador del conocimiento a realizar investigaciones y tomar decisiones, incluidos pasos como:

  • Revisar la información para derivar valor y significado de manera efectiva
  • Metadatos de referencia si están disponibles
  • Establecer un contexto relevante, a menudo de muchos contextos posibles
  • Obtener nuevos conocimientos a partir de la información.
  • Tomar decisiones o recomendaciones a partir del conocimiento resultante.

Stewart (2001) argumenta que la transformación de la información en conocimiento es fundamental, ya que se encuentra en el centro de la creación de valor y la ventaja competitiva para la empresa moderna.

El Diccionario danés de términos de información sostiene que la información solo proporciona una respuesta a una pregunta planteada. Si la respuesta proporciona conocimiento depende de la persona informada. Entonces, una definición generalizada del concepto debería ser: "Información" = Una respuesta a una pregunta específica".

Cuando Marshall McLuhan habla de los medios y sus efectos en las culturas humanas, se refiere a la estructura de los artefactos que, a su vez, dan forma a nuestros comportamientos y mentalidades. Además, a menudo se dice que las feromonas son "información" en este sentido.

Información mediada tecnológicamente

Estas secciones utilizan mediciones de datos en lugar de información, ya que la información no se puede medir directamente.

A partir de 2007

Se estima que la capacidad tecnológica mundial para almacenar información creció de 2,6 exabytes (comprimidos de forma óptima) en 1986, que es el equivalente informativo de menos de un CD-ROM de 730 MB por persona (539 MB por persona), a 295 (comprimidos de forma óptima). comprimido) exabytes en 2007. Este es el equivalente informativo de casi 61 CD-ROM por persona en 2007.

La capacidad tecnológica combinada del mundo para recibir información a través de redes de transmisión unidireccionales fue el equivalente informativo de 174 periódicos por persona por día en 2007.

La capacidad efectiva combinada del mundo para intercambiar información a través de redes de telecomunicaciones bidireccionales fue el equivalente informativo de 6 periódicos por persona por día en 2007.

A partir de 2007, aproximadamente el 90% de toda la información nueva es digital, principalmente almacenada en discos duros.

A partir de 2020

Se prevé que la cantidad total de datos creados, capturados, copiados y consumidos a nivel mundial aumente rápidamente, alcanzando los 64,2 zettabytes en 2020. Durante los próximos cinco años hasta 2025, se prevé que la creación de datos globales aumente a más de 180 zettabytes.

Como registros

Los registros son formas especializadas de información. Esencialmente, los registros son información producida conscientemente o como subproducto de actividades comerciales o transacciones y retenidas debido a su valor. Principalmente, su valor es como prueba de las actividades de la organización, pero también pueden conservarse por su valor informativo. La gestión sólida de registros garantiza que la integridad de los registros se conserve durante el tiempo que sea necesario.

La norma internacional sobre gestión de registros, ISO 15489, define los registros como "información creada, recibida y mantenida como evidencia e información por una organización o persona, en cumplimiento de obligaciones legales o en la transacción comercial". El Comité sobre registros electrónicos del Comité Internacional de Archivos (ICA, por sus siglas en inglés) definió un registro como "información registrada producida o recibida en el inicio, realización o finalización de una actividad institucional o individual y que comprende contenido, contexto y estructura suficientes para proporcionar evidencia de la actividad".

Los registros se pueden mantener para conservar la memoria corporativa de la organización o para cumplir con los requisitos legales, fiscales o de responsabilidad impuestos a la organización. Willis expresó la opinión de que la gestión sólida de los registros comerciales y la información brindan "... seis requisitos clave para un buen gobierno corporativo... transparencia, rendición de cuentas, debido proceso, cumplimiento, cumplimiento de los requisitos legales y de derecho consuetudinario, y seguridad de la información personal y corporativa."

Semiótica

Michael Buckland ha clasificado la "información" en términos de sus usos: "información como proceso", "información como conocimiento" e "información como cosa".

Beynon-Davies explica el concepto multifacético de información en términos de signos y sistemas de señales. Los signos mismos pueden ser considerados en términos de cuatro niveles, capas o ramas interdependientes de la semiótica: pragmática, semántica, sintaxis y empírica. Estas cuatro capas sirven para conectar el mundo social por un lado con el mundo físico o técnico por el otro.

La pragmática se ocupa del propósito de la comunicación. La pragmática vincula la cuestión de los signos con el contexto en el que se utilizan los signos. El enfoque de la pragmática está en las intenciones de los agentes vivos que subyacen al comportamiento comunicativo. En otras palabras, la pragmática vincula el lenguaje con la acción.

La semántica se ocupa del significado de un mensaje transmitido en un acto comunicativo. La semántica considera el contenido de la comunicación. La semántica es el estudio del significado de los signos: la asociación entre los signos y el comportamiento. La semántica puede considerarse como el estudio del vínculo entre los símbolos y sus referentes o conceptos, en particular la forma en que los signos se relacionan con el comportamiento humano.

La sintaxis se ocupa del formalismo utilizado para representar un mensaje. La sintaxis como área estudia la forma de comunicación en términos de la lógica y la gramática de los sistemas de signos. La sintaxis se dedica al estudio de la forma más que al contenido de los signos y sistemas de signos.

Nielsen (2008) analiza la relación entre la semiótica y la información en relación con los diccionarios. Introduce el concepto de costos de la información lexicográfica y se refiere al esfuerzo que debe hacer un usuario de un diccionario para primero encontrar y luego comprender los datos para poder generar información.

La comunicación normalmente existe dentro del contexto de alguna situación social. La situación social establece el contexto para las intenciones transmitidas (pragmática) y la forma de comunicación. En una situación comunicativa las intenciones se expresan a través de mensajes que comprenden colecciones de signos interrelacionados tomados de un lenguaje mutuamente entendido por los agentes involucrados en la comunicación. El entendimiento mutuo implica que los agentes involucrados comprendan el idioma elegido en términos de su sintaxis (sintáctica) y semántica acordadas. El remitente codifica el mensaje en el idioma y envía el mensaje como señales a lo largo de algún canal de comunicación (empírica). El canal de comunicación elegido tiene propiedades inherentes que determinan resultados tales como la velocidad a la que puede tener lugar la comunicación ya qué distancia.

La aplicación del estudio de la información.

El ciclo de la información (abordado como un todo o en sus distintos componentes) es de gran interés para la tecnología de la información, los sistemas de información y la ciencia de la información. Estos campos se ocupan de los procesos y técnicas relacionados con la captura de información (a través de sensores) y la generación (mediante computación, formulación o composición), el procesamiento (incluida la codificación, el cifrado, la compresión, el empaquetado), la transmisión (incluidos todos los métodos de telecomunicaciones), la presentación (incluidos métodos de visualización/visualización), almacenamiento (como métodos magnéticos u ópticos, incluidos los métodos holográficos), etc.

La visualización de información (abreviada como InfoVis) depende del cálculo y la representación digital de datos, y ayuda a los usuarios en el reconocimiento de patrones y la detección de anomalías.

  • Mapa parcial de Internet, con nodos que representan direcciones IP
  • Distribución de materia galáctica (incluida la oscura) en una sección cúbica del Universo
  • Información incrustada en un objeto matemático abstracto con núcleo de ruptura de simetría
  • Representación visual de un atractor extraño, con datos convertidos de su estructura fractal

La seguridad de la información (abreviada como InfoSec) es el proceso continuo de ejercer la debida diligencia para proteger la información y los sistemas de información del acceso, uso, divulgación, destrucción, modificación, interrupción o distribución no autorizados, a través de algoritmos y procedimientos enfocados en el monitoreo y la detección, como así como respuesta y reparación de incidentes.

El análisis de la información es el proceso de inspección, transformación y modelado de la información, mediante la conversión de datos sin procesar en conocimiento procesable, en apoyo del proceso de toma de decisiones.

La calidad de la información (abreviada como InfoQ) es el potencial de un conjunto de datos para lograr un objetivo específico (científico o práctico) utilizando un método de análisis empírico dado.

La comunicación de la información representa la convergencia de la informática, las telecomunicaciones y los medios y contenidos audiovisuales.

Contenido relacionado

Taligente

Abortar (informática)

Motorola 68010

Más resultados...
Tamaño del texto:
Copiar