Tudo sobre tuning de carros

Defina o que é informação. Tipos de informação em informática. O conceito e os tipos de informação. De acordo com seu propósito

A informação é uma das categorias filosóficas fundamentais, juntamente com matéria, energia, espaço e tempo. tem muitas definições diferentes que revelam todas as suas facetas. O dicionário filosófico dá essa definição - em primeiro lugar, é uma coleção de qualquer conhecimento, dados, algumas informações e, em segundo lugar, é um dos conceitos mais importantes da cibernética.

Outro conceito de informação é o produto resultante da interação de dados com métodos adequados. Dados são quaisquer sinais registrados. Mas para extrair informações deles, certos métodos são necessários.

Existe também um conceito de informação como um determinado recurso, um estoque de algumas características de um objeto, mas um recurso inesgotável que tem a capacidade de atualizar e reproduzir. E com este recurso, você pode realizar determinadas ações - processos de informação. Na estrutura de possíveis operações com ele, várias variedades principais podem ser distinguidas.

Tipos de processos de informação:

1) Pesquisa - extraindo informações de armazenamentos.

2) Cobrança - seu acúmulo para garantir completude suficiente para tomar uma decisão.

3) Formalização - trazer todos os seus tipos para a mesma forma para que se tornem comparáveis ​​entre si.

4) Filtragem - triagem de dados que não são necessários para a tomada de decisão.

5) Ordenação - a ordenação de todos os dados de acordo com um determinado atributo para uso mais conveniente, é utilizada para aumentar sua acessibilidade.

6) Arquivamento de dados - organização do processo de forma fácil e conveniente, graças a este processo, os custos econômicos de armazenamento de dados são reduzidos e a confiabilidade é aumentada.

7) Proteção de dados são medidas para evitar perda, modificação ou reprodução de dados.

8) Transporte - transmissão e recepção de dados entre os participantes

9) Transformação - transferência de dados para outro formulário ou estrutura.

O conceito de informação é complexo e multifacetado, portanto, esforços devem ser feitos para estudá-lo.

O conceito de informação. Tarefas e postulados da teoria da informação aplicada

Desde o início da década de 1950, foram feitas tentativas de utilizar o conceito de informação (que ainda não teve uma única definição) para explicar e descrever uma ampla variedade de fenômenos e processos.

Alguns livros dão a seguinte definição de informação:

Em formação é um conjunto de informações a serem armazenadas, transferidas, processadas e utilizadas nas atividades humanas..

Tal definição não é inteiramente inútil, uma vez que ajuda a imaginar pelo menos vagamente o que está em jogo. Mas logicamente não faz sentido. Conceito definido ( em formação) é substituído aqui por outro conceito ( levantamento de informações), que por si só precisa ser definido.

Propriedades da informação:

1. completude - a propriedade da informação de caracterizar exaustivamente (para um determinado consumidor) o objeto ou processo exibido;

2. relevância - a capacidade da informação de atender às necessidades do consumidor no momento certo;

3. confiabilidade - a propriedade da informação de não ter erros ocultos. Informações confiáveis ​​podem se tornar não confiáveis ​​ao longo do tempo se ficarem desatualizadas e não refletirem mais o verdadeiro estado das coisas;

4. disponibilidade - propriedade da informação que caracteriza a possibilidade de seu recebimento por determinado consumidor;

5. relevância - a capacidade da informação de atender às necessidades (solicitações) do consumidor;

6. segurança - propriedade que caracterize a impossibilidade de uso não autorizado ou alteração de informações;

7. ergonomia - propriedade que caracteriza a conveniência da forma ou quantidade de informação do ponto de vista de um determinado consumidor.

A informação deve ser considerada um tipo especial de recurso, significando a interpretação de “recurso” como um depósito de algum conhecimento de objetos materiais ou energéticos, estruturais ou quaisquer outras características de um objeto. Ao contrário dos recursos associados aos objetos materiais, os recursos de informação são inesgotáveis ​​e requerem métodos de reprodução e atualização significativamente diferentes dos recursos materiais.

Deste ponto de vista, podemos considerar as seguintes propriedades da informação:

1. memorização;

2. transferibilidade;

3. reprodutibilidade;

4. conversibilidade;

5. apagabilidade.

memorizaçãoé uma das propriedades mais importantes. As informações armazenadas serão chamadas de macroscópicas (significando as escalas espaciais da célula de armazenamento e o tempo de armazenamento). É com a informação macroscópica que lidamos na prática real.

Transferibilidade a informação usando canais de comunicação (inclusive com interferência) é bem estudada no quadro da teoria da informação de K. Shannon. Neste caso, queremos dizer um aspecto ligeiramente diferente - a capacidade da informação ser copiada, ou seja, ao fato de que pode ser "lembrado" por outro sistema macroscópico e ao mesmo tempo permanecer idêntico a si mesmo. Obviamente, a quantidade de informações não deve aumentar ao copiar.

Reprodutibilidade informação está intimamente relacionada à sua transferibilidade e não é sua propriedade básica independente. Se a transmissibilidade significa que as relações espaciais entre as partes do sistema entre as quais a informação é transmitida não devem ser consideradas significativas, então a reprodutibilidade caracteriza a inesgotável e inesgotável da informação, ou seja, que quando copiada, a informação permanece idêntica a si mesma.

A propriedade fundamental da informação é convertibilidade. Significa que a informação pode mudar o modo e a forma de sua existência. A capacidade de cópia é um tipo de transformação da informação em que sua quantidade não muda. No caso geral, a quantidade de informação nos processos de transformação muda, mas não pode aumentar.

Propriedade abrasão informação também não é independente. Está associado a tal transformação de informação (transmissão), em que sua quantidade diminui e se torna igual a zero.

Essas propriedades da informação não são suficientes para formar sua medida, pois se referem ao nível físico dos processos de informação.

A informação está sempre associada a um transportador de material.

portador de informações pode ser: qualquer objeto material (papel, pedra, etc.); ondas de diversas naturezas: acústicas (som), eletromagnéticas (luz, ondas de rádio), etc.; matéria em um estado diferente: a concentração de moléculas em solução líquida, temperatura, etc. Meios de armazenamento da máquina: fitas perfuradas, cartões perfurados, fitas magnéticas, etc.

Sinal- uma forma de transferir informações. Este é um processo físico que tem valor de informação. Pode ser contínuo ou discreto.Um sinal é chamado de discreto se pode assumir apenas um número finito de valores em um número finito de vezes.

sinal analógico- um sinal que varia continuamente em amplitude e tempo. Sinais que carregam informações textuais, simbólicas, discreto. Os sinais analógicos são usados ​​em comunicações telefônicas, radiodifusão e televisão. É inútil falar de informação em geral, e não em relação a nenhum de seus tipos específicos. Você pode classificá-lo:

  • por meio da percepção (visual, tátil, etc.);
  • pela forma de apresentação (texto, numérica, gráfica, etc.);
  • pelo significado social (de massa, especial, pessoal).

Com todas as diferenças na interpretação do conceito de informação, é indiscutível que a informação sempre se manifesta na forma material e energética na forma de sinais.

A informação apresentada de forma formalizada que permite seu processamento com auxílio de meios técnicos é denominada dados .

Em formação - esta é uma coleção de qualquer informação, dados transmitidos oralmente (na forma de fala), por escrito (na forma de texto, tabelas, figuras, desenhos, diagramas, símbolos) ou de outra forma (por exemplo, usando som ou luz sinais, impulsos elétricos e nervosos, quedas de pressão ou temperatura, etc.).

Em meados do século 20, o termo "informação" tornou-se um conceito científico geral, incluindo a troca de informações entre pessoas, uma pessoa e um autômato (computador), um autômato e um autômato, a troca de sinais em um animal e flora transmissão de características de célula para célula, de organismo para organismo.

As questões teóricas e práticas relacionadas à informação são estudadas pela informática.

Informática - ramo da ciência que estuda a estrutura e propriedades da informação, bem como questões relacionadas à sua coleta, armazenamento, busca, transferência, processamento, transformação, distribuição e uso em diversos campos da atividade humana.

Há outra definição de ciência da computação:

Informática é uma área de atividade humana associada aos processos de conversão de informações usando computadores.

Atenção especial à ciência da computação está associada ao crescimento explosivo do corpo de conhecimento humano, que é frequentemente chamado de " explosão de informações". A quantidade total de conhecimento humano costumava mudar muito lentamente. Então o processo de aquisição de novos conhecimentos se acelerou visivelmente. Assim, a quantidade total de conhecimento humano dobrou a cada 50 anos em 1800, a cada 10 anos em 1950, a cada 5 anos em 1970 e anualmente em 1990. Assim, atualmente, acumulou-se uma grande quantidade de informações, impossíveis de serem processadas manualmente (devido às suas características fisiológicas).

Uma ferramenta eficaz para processar uma grande quantidade de informações e um auxiliar indispensável na vida humana tornou-se um computador(do dispositivo de computação em inglês).

Principal instruções de uso computador:

  • acúmulo, armazenamento e processamento de grandes volumes de informações, busca rápida dos dados necessários;
  • realização de cálculos científicos, econômicos e de projeto;
  • trabalho de escritório (escrever cartas, papelada);
  • formação e aquisição de competências profissionais;
  • publicação;
  • construção de desenhos, diagramas, desenhos e
    pinturas, desenhos animados, filmes, videoclipes;
  • comunicação de pessoas;
  • imitação do trabalho de um especialista humano em um determinado
    área de estudo;
  • jogos e entretenimento.

    Apesar da variedade de tarefas resolvidas com a ajuda de um computador, o princípio de sua aplicação em cada caso é o mesmo: as informações que entram no computador são processadas para obter os resultados necessários. Não é por acaso que nos EUA e no Reino Unido, o curso de ciência da computação se chama ComputerScience - ciência da computação. Assim, a ciência da computação lida com o processamento de informações usando um computador. Para resolver um problema específico, o computador deve executar determinadas ações (comandos) em uma ordem estritamente definida.

    Programa - Este é um conjunto de comandos escritos em uma determinada ordem, cuja execução fornece uma solução para um problema específico. O processo de programação é chamado programação .

    Assim, para resolver um problema específico, é necessário ter um computador, ou seja, o próprio dispositivo para realizar ações. NO língua Inglesa existe uma palavra especial - hardware - para se referir a todas as partes e dispositivos que compõem um computador, os chamados. ferragens. Além do computador, você deve ter um conjunto de programas que controlam suas ações - Programas , ou software. Esta palavra foi cunhada especificamente para enfatizar que o software é uma parte igual do computador como um dispositivo projetado para resolver problemas, mas ao contrário do hardware “hard”, o software (software) é flexível, mudando dependendo da tarefa específica que está sendo resolvida.

  • A palavra "informação" de informatio - informação, esclarecimento, familiarização.

    Em formação- trata-se de uma coleção de qualquer informação, dados transmitidos oralmente (na forma de fala), por escrito (na forma de texto, tabelas, figuras, desenhos, diagramas, símbolos) ou de outra forma (por exemplo, usando som ou sinais luminosos, impulsos elétricos e nervosos, mudanças de pressão ou temperatura, etc.).

    Em meados do século 20, o termo "informação" tornou-se um conceito científico geral, incluindo a troca de informações entre pessoas, uma pessoa e um autômato (um computador eletrônico - um computador), um autômato e um autômato, a troca de sinais no mundo animal e vegetal, a transferência de sinais de célula para célula, de um organismo para o corpo.

    As questões teóricas e práticas relacionadas à informação são estudadas pela informática.

    Informática- uma ciência que estuda a estrutura e as propriedades da informação, bem como as questões relacionadas à sua coleta, armazenamento, busca, transferência, transformação, distribuição e uso em diversos campos da atividade humana.

    Outra definição de ciência da computação.

    A informática é uma área da atividade humana associada aos processos de conversão de informações por meio de computadores.

    É difícil dar uma definição inequívoca de informação. Existem 4 abordagens para definir informações:

    • comum(no sentido de estar ciente do estado das coisas, esta é a informação comunicada por telefone, rádio e televisão),
    • filosófico(informação é recebida pelo sujeito sobre o objeto no processo de cognição; acredita-se que o objeto é refletido na mente do sujeito),
    • cibernético(a informação é um sinal de controle transmitido por uma linha de comunicação, mas é mais um portador de informação do que a própria informação),
    • probabilístico(a informação é uma medida de redução da incerteza do estado do objeto de estudo).

    Vamos falar mais detalhadamente sobre a abordagem probabilística, pois ela permite introduzir uma medida quantitativa de informação. Essa abordagem é aceita como base na ciência moderna.

    Todo objeto tem algum tipo de incerteza. Por exemplo, pode estar em um dos vários estados fixos. A moeda caída está em um dos dois estados, o dado está em um dos seis estados e assim por diante. No processo de teste (lançamento de uma moeda, um dado), o objeto adquire um dos estados possíveis. Consequentemente, a incerteza do estado do objeto é reduzida neste caso. Assim, o testador recebe algumas informações. O grau de redução de incerteza durante o teste pode ser diferente. Depende do número de estados possíveis e de suas probabilidades.

    Probabilidade- este é um valor na faixa de 0 a 1, caracterizando a frequência de ocorrência de um determinado estado do objeto durante o teste.


    É claro que quando ocorre o estado menos provável, obtemos o estado mais grande quantidade em formação. Se um objeto tem n estados equiprováveis, então a probabilidade de cada um deles é 1/n. Por exemplo, a probabilidade de obter uma das faces do dado ao lançar é 1/6, e a probabilidade de obter cara (coroa) ao lançar uma moeda é 0,5. Isso significa que de 1.000 lançamentos de uma moeda, ocorrem aproximadamente 500 caras (coroas).

    Atenção especial à ciência da computação está associada ao rápido crescimento do corpo de conhecimento humano, que às vezes é chamado de "explosão de informação". A quantidade total de conhecimento humano costumava mudar muito lentamente. Então o processo de aquisição de novos conhecimentos foi visivelmente acelerado. Assim, a quantidade total de conhecimento humano dobrou a cada 50 anos em 1800, em 1950 - a cada 10 anos e em 1970 - a cada 5 anos, em 1990 - anualmente

    Uma enorme quantidade de informações é transmitida pela rede global da Internet, que conecta países localizados em diferentes continentes.

    De acordo com um relatório da ComputerAlmanacIndustryInc., mais de 147 milhões de pessoas em todo o mundo tinham acesso à Internet em 1998, contra 61 milhões em 1996. O relatório nomeou os 15 países mais "conectados" do mundo.

    A lista foi liderada pelos EUA com 76,5 milhões de usuários, seguido pelo Japão e Reino Unido com 9,75 milhões e 8,1 milhões de usuários, respectivamente. Entre os dez primeiros estão Alemanha - 7,14 milhões de usuários, Canadá - 6,49 milhões, Austrália - 4,36 milhões, França - 2,79 milhões, Suécia - 2,58 milhões, Itália 2,14 milhões e Espanha - 1,98 milhão

    Os cinco países restantes na lista dos quinze foram: Holanda - 1,96 milhão de usuários de Internet, Taiwan - 1,65 milhão, China - 1,58 milhão, Finlândia - 1,57 milhão e Noruega - 1,34 milhão. a "população" mundial da Internet.

    Assim, atualmente, acumula-se uma grande quantidade de informações, impossíveis de serem processadas manualmente (devido às suas características psicofísicas).

    Uma ferramenta eficaz para processar uma grande quantidade de informações é um computador eletrônico. (COMPUTADOR).

    Um dos principais fatores para acelerar o progresso científico e tecnológico é o uso generalizado novas tecnologias de informação, que é entendido conjunto de métodos e meios coleta, processamento e transmissão de dados (informações primárias) para obter informações de uma nova qualidade sobre o estado de um objeto, processo ou fenômeno com base na tecnologia de computador e comunicação e no uso generalizado de métodos matemáticos.

    Existem duas formas de apresentação de informações - contínuo (analógico) e intermitente (digital, discreto). A forma contínua caracteriza um processo que não tem interrupções e teoricamente pode mudar a qualquer momento e por qualquer quantidade (por exemplo, a fala humana, uma peça musical). O sinal digital pode mudar apenas em determinados momentos e assumir apenas valores predeterminados (por exemplo, apenas valores de tensão de 0 e 3,5 V). Os momentos de uma possível mudança no nível de um sinal digital são definidos pelo gerador de clock de um determinado dispositivo digital.

    Para converter um sinal analógico em um sinal digital, é necessário amostrar o sinal contínuo no tempo, quantizar por nível e então codificar os valores selecionados.

    Amostragem- substituição de um sinal contínuo (analógico) por uma sequência de amostras deste sinal separadas no tempo. A mais comum é a discretização uniforme, que se baseia em Teorema de Kotelnikov.

    A figura mostra esquematicamente o processo de conversão de um sinal analógico em um sinal digital. O sinal digital neste caso pode ter apenas cinco níveis diferentes. Naturalmente, a qualidade de tal transformação é baixa. Pode-se ver na figura que uma mudança no sinal digital é possível apenas em determinados pontos no tempo (neste caso, existem onze desses pontos).

    Após tal transformação, um sinal contínuo é representado por uma sequência de números. O sinal contínuo mostrado na figura é substituído pelos números 2-3-4-4-4-3-2-2-3-4-4. Em seguida, os números decimais listados são convertidos (codificados) em uma sequência de uns e zeros. Os resultados dessa transformação podem ser apresentados em uma tabela:

    Após tal transformação, um sinal contínuo é representado por uma sequência de números. O sinal contínuo mostrado na figura é substituído pelos números 2-3-4-4-4-3-2-2-3-4-4. Em seguida, os números decimais listados são convertidos (codificados) em uma sequência de uns e zeros.

    A primeira ideia sobre as formas analógicas e digitais de armazenamento e distribuição de informações pode ser obtida considerando duas formas de gravação de sinais de áudio: gravações de áudio analógicas e digitais.

    Na gravação de áudio analógico, um sinal elétrico contínuo gerado por uma fonte de som na saída de um microfone é aplicado a uma fita magnética em movimento usando uma cabeça magnética. A desvantagem do método analógico de processamento de informações é que a cópia é sempre pior que o original.

    A gravação de áudio digital usa um processo de amostragem que mede periodicamente o nível (volume) de um sinal de áudio analógico (como a saída de um microfone) e converte o valor resultante em uma sequência de números binários. Para converter um sinal analógico em digital, um conversor especial é usado, chamado conversor analógico-digital (ADC). O sinal na saída do ADC é uma sequência de números binários que podem ser gravados em um disco laser ou processados ​​por um computador. A conversão reversa de um sinal digital em um sinal contínuo é realizada usando um conversor digital-analógico (DAC).

    A qualidade da conversão analógico-digital é caracterizada por um parâmetro chamado resolução. Resolução é o número de níveis de quantização usados ​​para substituir um sinal analógico contínuo por um sinal digital. A amostragem de oito bits permite apenas 256 níveis diferentes de quantização do sinal digital e a amostragem de dezesseis bits - 65.536 níveis.

    Outro indicador da qualidade da transformação de um sinal contínuo em sinal digital é a taxa de amostragem - o número de conversões analógico-digitais (amostras) realizadas pelo dispositivo em um segundo.

    Este indicador é medido em kilohertz (kilohertz - mil amostras por segundo). Uma taxa de amostragem típica para discos de áudio a laser modernos é de 44,1 kHz.

    Há uma tendência para uma única representação digital de todos os tipos de informação. A rede global da Internet pretende unir todos os meios de transmissão e comunicação, redes de computadores, telefone, rádio e vídeo, ligando-os em um único "ciberespaço".

    1.8 teoria da informação, este termo é usado formalmente para quantificar uma série de itens em termos do número de escolhas que qualquer pessoa que lida com esses itens tem. Por definição, a quantidade de informação, medida em bits e abreviada como H, contida em uma matriz de escolhas equiprováveis ​​é expressa como log2 N, onde N é o número de escolhas. Assim, a resposta à pergunta: "Está chovendo?" – fornecerá um bit de informação, pois há apenas duas opções (sim ou não) e log2 2=1. (Observe que não importa se a resposta é verdadeira ou não.) Se alguém escolher entre 16 alternativas igualmente prováveis, essa escolha fornecerá 4 bits de informação (log216 = 4). Em geral, quanto menos provável for um evento, mais informações serão transmitidas com sua ocorrência.

    Curiosamente, esse uso de informações é paralelo ao que os físicos conhecem como entropia ou aleatoriedade. Quando um conjunto é altamente estruturado e não caracterizado por aleatoriedade, tanto a entropia quanto os expoentes de informação são baixos. Esse significado do termo, portanto, não está relacionado ao que é comunicado, mas ao que poderia ser comunicado; portanto, deve ser conceitualmente diferenciado de 2. 2. Significado livre: qualquer material com conteúdo. Este significado do termo está próximo do significado padrão em uso não especial. Informação aqui é basicamente qualquer conhecimento que é recebido, processado e compreendido. Quando o conceito de padrões de processamento de informação foi introduzido pela primeira vez na psicologia cognitiva, o termo informação foi usado no sentido de 1. Entretanto, a dificuldade em determinar quanta informação está contida em algo e, portanto, processada por alguém que está lidando com um mas uma mensagem complexa (por exemplo, esta frase) levou rapidamente a um viés para um valor de 2.

    EM FORMAÇÃO

    em formação; Informação) refere-se a todos aqueles dados que chegam a uma pessoa de fora através de vários canais sensório-perceptivos e sensório-motores, bem como aqueles dados que já foram processados ​​pelo sistema nervoso central, internalizados e reinterpretados por uma pessoa e apresentado em sua cabeça na forma de representações mentais. A virada cognitiva na ciência colocou no centro dos interesses de pesquisa, antes de tudo, a informação cognitiva como informação especificamente humana adquirida na experiência de cognição do mundo durante a percepção e generalização dessa experiência. Na verdade, o assunto da ciência cognitiva é a informação mental, que J. Fodor define como um "código interno"; J. Miller e F. Johnson-Laird entendem a informação mental como uma “estrutura conceitual” [Miller, Johnson-Laird 1976]; R.Jackendoff refere-se às tarefas da teoria cognitiva o estudo da estrutura da informação mental e os princípios de "computação" (calculando) esta informação. A informação mental está relacionada a vários espaços mentais, cujo conteúdo pode ser tanto informações sobre o mundo real quanto sobre planos, crenças, intenções, etc. A informação conceitual é considerada como resultado da atividade cognitiva humana, como aquela informação significativa que já se tornou produto do processamento humano e estruturação do conhecimento. As informações conceituais surgem no processo de compreensão de todas as informações recebidas. canais diferentes informações e podem incluir tanto informações sobre o estado objetivo das coisas no mundo quanto informações sobre mundos possíveis e o estado das coisas neles.

    EM FORMAÇÃO

    de lat. informatio - esclarecimento, apresentação) - inicialmente - qualquer informação transmitida por pessoas oralmente, por escrito ou de outras formas; desde meados do século XX. - um conceito científico geral que inclui a troca de informações entre pessoas, pessoas e dispositivos técnicos, dispositivos técnicos, a troca de sinais no mundo vegetal e animal, a transferência de sinais de célula para célula, de organismo para organismo. Na conflitologia, a abordagem informacional para o estudo e regulação dos conflitos ainda não foi fundamentada, a necessidade e a importância dela não são reconhecidas devido à juventude da ciência. Abordagem da informação em conflitologia m. b. aplicada em quatro áreas principais. 1. O escopo do estudo de conflitos reais, cada um dos quais pode ser submetido à análise de informações do sistema. Quaisquer decisões e ações tomadas pelos participantes do conflito são baseadas nos modelos de informação da situação de conflito que eles possuem. O próprio processo de interação do conflito é uma troca de informações entre os participantes do conflito. A chave para a compreensão dos conflitos está no estudo do ambiente da informação, sob as condições e sob a influência de que eles surgem, se desenvolvem e terminam. 2. Os estereótipos do comportamento das pessoas em conflitos são o resultado do impacto da informação da experiência de vida humana. O estudo de quais tipos de I. e como formam os motivos inconscientes das ações humanas de conflito no futuro é uma direção importante no estudo e regulação dos conflitos. 3. A influência de um terceiro no conflito com vista à sua resolução construtiva é de natureza informativa. O suporte de informações de alta qualidade para gerenciamento de conflitos é uma condição fundamental para o trabalho bem-sucedido de um conflitologista. 4. A própria conflitologia é o conhecimento científico sobre conflitos, cujo desenvolvimento está sujeito às leis de recepção, transmissão e armazenamento I. No século XX. os autores de 607 dissertações sobre conflitologia utilizaram em suas pesquisas cerca de 10% dos I. disponíveis sobre o problema na ciência que representam, e cerca de 1% dos I. de ciências afins. Dificuldades na divulgação de conflitos I. dificultam o desenvolvimento da ciência.

    EM FORMAÇÃO

    de lat. informare - para compor um conceito sobre algo) - um conjunto de informações que reduz a incerteza na escolha de várias possibilidades. Na psicologia da engenharia - quaisquer alterações no processo controlado exibidas no modelo de informação ou percebidas diretamente pelo operador, bem como comandos, indicações da necessidade de implementar certas influências no processo de controle. Qualquer mensagem é informativa se representa algo que não sabíamos antes desta mensagem. Uma mensagem é uma coleção de informações sobre algum sistema físico. Em relação à atividade do operador, uma mensagem é um conjunto de sinais visuais, acústicos e outros percebidos em um determinado momento, bem como “sinais” armazenados na memória do operador. A mensagem adquire significado (contém certa quantidade de informação) somente quando o estado do sistema não é conhecido antecipadamente, por acaso, ou seja, o sistema possui algum grau de incerteza antecipadamente. O conceito de entropia é usado como uma medida de incerteza. A incerteza de um sistema é reduzida pela obtenção de qualquer informação sobre esse sistema. Quanto maior a quantidade de informação recebida, mais significativa ela é, mais informações sobre o sistema você pode ter. Portanto, é natural medir a quantidade de informação por uma diminuição na entropia do sistema para o qual a informação se destina a esclarecer o estado. Se a entropia inicial (a priori) do sistema era H(X), e após receber informações sobre este sistema (por exemplo, após atualizar as informações nos meios de exibição), a entropia se tornou H0 (X), então a quantidade de informação recebida é: 1 = H(X) -H0 (X). No caso praticamente importante quando, após receber a informação, o estado do sistema ficou completamente definido, ou seja, H0 (X) = 0, a quantidade de informação recebida é igual à entropia do sistema: 1 = H (X). Utilizado nas atividades do operador I. é classificado de acordo com uma série de critérios. Por marcação, I. pode ser de comando (dá instruções sobre a necessidade de determinadas ações) e informativo (dá uma ideia da situação atual). Por sua natureza, I. pode ser relevante (útil em determinada situação) e irrelevante (inútil em determinada situação; tal I. também pode ser prejudicial do ponto de vista da eficiência do trabalho do operador, então é chamado de obstáculo) . E, por fim, do ponto de vista da completude, I. se divide em redundante e não redundante. A introdução de redundância (imagem, linguagem natural, etc.) ferramenta eficaz anti-interferência, aumenta a imunidade ao ruído do operador. A quantidade de radiação transmitida aos operadores dos meios de exibição para os controles pode diferir significativamente da quantidade de radiação recebida (a entropia da fonte de radiação). Essa diferença se deve, em primeiro lugar, ao fato de que, no caso de um canal de comunicação técnica, parte da informação H p6m pode ser perdida por interferência. Em segundo lugar, o número de I. aumenta devido ao uso de I adicional. É formado envolvendo alguns dados armazenados na memória do operador e também se, no processo de resolução de um problema, o operador precisar realizar algum cálculo, verifique as condições lógicas ou lembre-se de algumas das informações. Portanto, no caso geral, a quantidade de I. processada pelo operador é N = N + N - N. A unidade de medida para a quantidade de I. é uma unidade binária, ou bit. Um bit é a entropia do sistema mais simples que tem dois estados equiprováveis. O operador recebe uma unidade binária (um bit) ao escolher um dos dois sinais igualmente prováveis. A psicologia da engenharia e a ergonomia estudam características da inteligência como quantidade, valor, confiabilidade, redundância e segurança, bem como processos de informação como codificação, compressão, envelhecimento, dispersão e reprodução da inteligência.