Totul despre tuning auto

Definiți ce este informația. Tipuri de informații în informatică. Conceptul și tipurile de informații. Conform scopului său

Informația este una dintre categoriile filozofice fundamentale, alături de materie, energie, spațiu și timp. are multe definiții diferite care dezvăluie toate fațetele sale. Dicționarul filozofic îi oferă o astfel de definiție - în primul rând, este o colecție de orice cunoaștere, date, unele informații și, în al doilea rând, este unul dintre cele mai importante concepte din cibernetică.

Un alt concept de informație este produsul rezultat din interacțiunea datelor cu metode adecvate. Datele sunt orice semnal înregistrat. Dar pentru a extrage informații din ele sunt necesare anumite metode.

Există și un astfel de concept de informație ca o anumită resursă, un stoc al unor caracteristici ale unui obiect, dar o resursă inepuizabilă care are capacitatea de a se actualiza și reproduce. Și cu această resursă, puteți efectua anumite acțiuni - procese de informare. În structura posibilelor operațiuni cu acesta, se pot distinge mai multe soiuri principale.

Tipuri de procese informatice:

1) Căutare - extragerea informațiilor din depozite.

2) Colectare - acumularea acesteia pentru a asigura completitatea suficientă pentru a lua o decizie.

3) Formalizarea - aducerea tuturor tipurilor sale în aceeași formă, astfel încât să devină comparabile între ele.

4) Filtrare - eliminarea datelor care nu sunt necesare pentru luarea deciziilor.

5) Sortare - ordonarea tuturor datelor în funcție de un anumit atribut pentru o utilizare mai convenabilă, este folosită pentru a crește accesibilitatea acesteia.

6) Arhivarea datelor - organizarea procesului într-o formă ușor accesibilă și convenabilă, datorită acestui proces, costurile economice ale stocării datelor sunt reduse și crește fiabilitatea.

7) Protecția datelor reprezintă măsuri de prevenire a pierderii, modificării sau reproducerii datelor.

8) Transport - transmiterea și recepția datelor între participanți

9) Transformare - transferarea datelor într-o altă formă sau structură.

Conceptul de informație este complex și cu mai multe fațete, așa că ar trebui depuse eforturi pentru a-l studia.

Conceptul de informare. Sarcini și postulate ale teoriei informației aplicate

De la începutul anilor 1950 s-au încercat folosirea conceptului de informație (care nu a avut încă o singură definiție) pentru a explica și descrie o mare varietate de fenomene și procese.

Unele manuale oferă următoarea definiție a informațiilor:

informație este un set de informații care trebuie stocate, transferate, prelucrate și utilizate în activitățile umane.

O astfel de definiție nu este complet inutilă, deoarece ajută să ne imaginăm cel puțin vag ce este în joc. Dar logic nu are sens. Concept definit ( informație) este înlocuit aici cu un alt concept ( colectare de informații), care în sine trebuie definit.

Proprietățile informațiilor:

1. completitudine - proprietatea informațiilor de a caracteriza în mod exhaustiv (pentru un anumit consumator) obiectul sau procesul afișat;

2. relevanta - capacitatea informatiei de a satisface nevoile consumatorului la momentul potrivit;

3. fiabilitate - proprietatea informatiei de a nu avea erori ascunse. Informațiile de încredere pot deveni nesigure în timp dacă devin depășite și nu mai reflectă starea reală a lucrurilor;

4. disponibilitate - o proprietate a informatiei care caracterizeaza posibilitatea primirii acesteia de catre un anumit consumator;

5. relevanta - capacitatea informatiei de a satisface nevoile (cererile) consumatorului;

6. securitate - o proprietate care caracterizează imposibilitatea utilizării sau modificării neautorizate a informațiilor;

7. ergonomie - proprietate care caracterizează comoditatea formei sau cantității de informații din punctul de vedere al unui anumit consumator.

Informația ar trebui să fie considerată un tip special de resursă, adică interpretarea „resursei” ca un depozit al unor cunoștințe despre obiecte materiale sau energie, structurale sau orice alte caracteristici ale unui obiect. Spre deosebire de resursele asociate obiectelor materiale, resursele informaționale sunt inepuizabile și necesită metode semnificativ diferite de reproducere și actualizare decât resursele materiale.

Din acest punct de vedere, putem lua în considerare următoarele proprietăți ale informațiilor:

1. memorabilitate;

2. transferabilitate;

3. reproductibilitate;

4. convertibilitate;

5. ștergere.

memorabilitate este una dintre cele mai importante proprietăți. Informațiile stocate vor fi numite macroscopice (adică scarile spațiale ale celulei de stocare și timpul de stocare). Cu informațiile macroscopice ne ocupăm în practică reală.

Transferabilitate informația care utilizează canalele de comunicare (inclusiv cu interferențe) este bine studiată în cadrul teoriei informaționale a lui K. Shannon. În acest caz, ne referim la un aspect ușor diferit - capacitatea informațiilor de a fi copiate, adică. la faptul că poate fi „rememorat” de un alt sistem macroscopic și în același timp să rămână identic cu sine. Evident, cantitatea de informații nu ar trebui să crească la copiere.

Reproductibilitatea informația este strâns legată de transferabilitatea sa și nu este proprietatea sa de bază independentă. Dacă transmisibilitatea înseamnă că relațiile spațiale dintre părțile sistemului între care se transmite informațiile nu ar trebui considerate semnificative, atunci reproductibilitatea caracterizează inepuizabilitatea și inepuizabilitatea informațiilor, de exemplu. că atunci când sunt copiate, informația rămâne identică cu ea însăși.

Proprietatea fundamentală a informaţiei este convertibilitate. Înseamnă că informația își poate schimba modul și forma existenței. Copiabilitate este un fel de transformare a informației în care cantitatea acesteia nu se modifică. În cazul general, cantitatea de informații din procesele de transformare se modifică, dar nu poate crește.

Proprietate abraziune informația nu este, de asemenea, independentă. Este asociat cu o astfel de transformare a informației (transmitere), în care cantitatea acesteia scade și devine egală cu zero.

Aceste proprietăți ale informațiilor nu sunt suficiente pentru a forma măsura ei, deoarece se referă la nivelul fizic al proceselor informaționale.

Informația este întotdeauna asociată cu un purtător de materiale.

purtător de informații pot fi: orice obiect material (hârtie, piatră etc.); unde de natură variată: acustice (sunet), electromagnetice (lumină, unde radio) etc.; materia într-o stare diferită: concentraţia moleculelor în soluție lichidă, temperatura, etc. Suporturi de stocare a mașinii: benzi perforate, carduri perforate, benzi magnetice etc.

Semnal- o modalitate de transfer de informații. Acesta este un proces fizic care are valoare informațională. Poate fi continuu sau discret Un semnal se numește discret dacă poate lua doar un număr finit de valori la un număr finit de ori.

semnal analog- un semnal care variază continuu în amplitudine și timp. Semnale care transportă informații textuale, simbolice, discret. Semnalele analogice sunt folosite în comunicațiile telefonice, radiodifuziunea și televiziune. Este inutil să vorbim despre informații în general, și nu în legătură cu oricare dintre tipurile sale specifice. Il poti clasifica:

  • prin intermediul percepției (vizuale, tactile etc.);
  • după forma de prezentare (text, numeric, grafic etc.);
  • după semnificația socială (de masă, specială, personală).

Cu toate diferențele de interpretare a conceptului de informație, este incontestabil că informația se manifestă întotdeauna sub formă materială și energetică sub formă de semnale.

Se numește informații prezentate într-o formă formalizată care să permită prelucrarea acesteia cu ajutorul mijloacelor tehnice date .

Informație - aceasta este o colecție de informații, date transmise oral (sub formă de vorbire), în scris (sub formă de text, tabele, figuri, desene, diagrame, simboluri) sau în alt mod (de exemplu, folosind sunetul sau lumina semnale, impulsuri electrice și nervoase, scăderi de presiune sau temperatură etc.).

La mijlocul secolului al XX-lea, termenul „informație” a devenit un concept științific general, incluzând schimbul de informații între oameni, o persoană și un automat (calculator), un automat și un automat, schimbul de semnale la un animal și floră transmiterea trăsăturilor de la celulă la celulă, de la organism la organism.

Problemele teoretice și practice legate de informație sunt studiate de informatică.

Informatica - o ramură a științei care studiază structura și proprietățile informațiilor, precum și problemele legate de colectarea, stocarea, căutarea, transferul, prelucrarea, transformarea, distribuirea și utilizarea acesteia în diverse domenii ale activității umane.

Există o altă definiție a informaticii:

Informatica este o zonă de activitate umană asociată cu procesele de conversie a informațiilor cu ajutorul computerelor.

O atenție sporită acordată informaticii este asociată cu creșterea explozivă a corpului cunoașterii umane, care este adesea numită „ explozie informațională". Cantitatea totală de cunoștințe umane obișnuia să se schimbe foarte lent. Apoi procesul de dobândire a noilor cunoștințe s-a accelerat considerabil. Deci, cantitatea totală de cunoștințe umane s-a dublat la fiecare 50 de ani până în 1800, la fiecare 10 ani până în 1950, la fiecare 5 ani până în 1970 și anual până în 1990. Astfel, în prezent, s-a acumulat o cantitate mare de informații, ceea ce este imposibil de prelucrat manual de către oameni (datorită caracteristicilor lor fiziologice).

Un instrument eficient pentru procesarea unei cantități mari de informații și un asistent indispensabil în viața umană a devenit un calculator(din engleză computer-computing device).

Principal instructiuni de utilizare calculator:

  • acumularea, stocarea și prelucrarea unor volume mari de informații, căutarea rapidă a datelor necesare;
  • efectuarea de calcule științifice, economice și de proiectare;
  • munca de birou (scriere de scrisori, documente);
  • formarea și dobândirea de competențe profesionale;
  • publicare;
  • construcția de desene, diagrame, desene și
    tablouri, desene animate, filme, clipuri video;
  • comunicarea oamenilor;
  • imitarea muncii unui expert uman într-un anumit
    domeniul de subiect;
  • jocuri și divertisment.

    În ciuda varietății de sarcini rezolvate cu ajutorul unui computer, principiul aplicării acestuia în fiecare caz este același: informațiile care intră în computer sunt procesate pentru a obține rezultatele solicitate. Nu întâmplător, în SUA și Marea Britanie, cursul de informatică se numește ComputerScience – informatică. Deci, informatica se ocupa de prelucrarea informatiilor folosind un calculator. Pentru a rezolva o anumită problemă, computerul trebuie să efectueze anumite acțiuni (comenzi) într-o ordine strict definită.

    Program - Acesta este un set de comenzi scrise într-o anumită ordine, a căror execuție oferă o soluție la o anumită problemă. Procesul de programare este numit programare .

    Astfel, pentru a rezolva o anumită problemă, este necesar să aveți un computer, adică. dispozitivul în sine pentru efectuarea acțiunilor. LA Limba engleză există un cuvânt special - hardware- pentru a se referi la toate piesele și dispozitivele care alcătuiesc un computer, așa-numitul. hardware. Pe lângă computer, trebuie să aveți un set de programe care să îi controleze acțiunile - software , sau software. Acest cuvânt a fost creat special pentru a sublinia faptul că software-ul este o parte egală a computerului ca un dispozitiv conceput pentru a rezolva probleme, dar spre deosebire de hardware-ul „hard”, software-ul (software-ul) este flexibil, modificându-se în funcție de sarcina specifică rezolvată.

  • Cuvântul „informație” din informatio - informare, clarificare, familiarizare.

    informație- aceasta este o colecție de informații, date transmise oral (sub formă de vorbire), în scris (sub formă de text, tabele, figuri, desene, diagrame, simboluri) sau în alt mod (de exemplu, folosind sunet sau semnale luminoase, impulsuri electrice și nervoase, modificări de presiune sau temperatură etc.).

    La mijlocul secolului al XX-lea, termenul „informație” a devenit un concept științific general, incluzând schimbul de informații între oameni, o persoană și un automat (un computer electronic - un computer), un automat și un automat, schimbul de semnale în lumea animală și vegetală, transferul de semne de la celulă la celulă, de la un organism la corp.

    Problemele teoretice și practice legate de informație sunt studiate de informatică.

    Informatica- o știință care studiază structura și proprietățile informațiilor, precum și problemele legate de colectarea, stocarea, căutarea, transferul, transformarea, distribuirea și utilizarea acesteia în diverse domenii ale activității umane.

    O altă definiție a informaticii.

    Informatica este un domeniu al activității umane asociat cu procesele de conversie a informațiilor cu ajutorul computerelor.

    Este dificil de dat o definiție clară a informațiilor. Există 4 abordări pentru definirea informațiilor:

    • comun(în sensul de a fi la curent cu starea de fapt, este vorba de informații comunicate prin telefon, radio și televiziune),
    • filozofic(informația este primită de subiect despre obiect în procesul de cunoaștere; se crede că obiectul este reflectat în mintea subiectului),
    • cibernetic(informația este un semnal de control transmis pe o linie de comunicație, dar este mai degrabă un purtător de informații decât informația în sine),
    • probabilistică(informația este o măsură de reducere a incertitudinii stării obiectului de studiu).

    Să vorbim mai detaliat despre abordarea probabilistică, deoarece vă permite să introduceți o măsură cantitativă a informațiilor. Această abordare este acceptată ca bază în știința modernă.

    Fiecare obiect are un fel de incertitudine. De exemplu, poate fi într-una din mai multe stări fixe. Moneda căzută este într-una din cele două stări, zarul este într-una din șase stări și așa mai departe. În procesul de testare (aruncarea unei monede, a unui zar), obiectul capătă una dintre stările posibile. În consecință, incertitudinea stării obiectului este redusă în acest caz. Astfel, testerul primește unele informații. Gradul de reducere a incertitudinii în timpul testării poate fi diferit. Depinde de numărul de stări posibile și de probabilitățile acestora.

    Probabilitate- aceasta este o valoare în intervalul de la 0 la 1, care caracterizează frecvența de apariție a unei anumite stări a obiectului în timpul testării.


    Este clar că atunci când apare cea mai puțin probabilă stare, obținem cel mai mult cantitate mare informație. Dacă un obiect are n stări echiprobabile, atunci probabilitatea fiecăreia dintre ele este 1/n. De exemplu, probabilitatea de a obține una dintre fețele zarului la aruncare este de 1/6, iar probabilitatea de a obține cap (cozi) atunci când aruncați o monedă este de 0,5. Aceasta înseamnă că din 1000 de aruncări ale unei monede apar aproximativ 500 de capete (cozi).

    O atenție sporită acordată informaticii este asociată cu creșterea rapidă a corpului cunoștințelor umane, care uneori este numită „explozie informațională”. Cantitatea totală de cunoștințe umane obișnuia să se schimbe foarte lent. Apoi procesul de dobândire a noilor cunoștințe a fost accelerat simțitor. Astfel, cantitatea totală de cunoștințe umane s-a dublat la fiecare 50 de ani până în 1800, până în 1950 - la fiecare 10 ani și până în 1970 - la fiecare 5 ani, până în 1990 - anual.

    O cantitate imensă de informații este transmisă prin rețeaua globală de internet, care conectează țări situate pe diferite continente.

    Potrivit unui raport al ComputerAlmanacIndustryInc., peste 147 de milioane de oameni din întreaga lume au avut acces la Internet în 1998, față de 61 de milioane în 1996. Raportul a numit cele 15 țări cele mai „conectate” din lume.

    Lista a fost în frunte cu SUA cu 76,5 milioane de utilizatori, urmate de Japonia și Marea Britanie cu 9,75 milioane și, respectiv, 8,1 milioane de utilizatori. În primele zece au fost Germania - 7,14 milioane de utilizatori, Canada - 6,49 milioane, Australia - 4,36 milioane, Franța - 2,79 milioane, Suedia - 2,58 milioane, Italia 2,14 milioane și Spania - 1,98 milioane

    Restul de cinci țări din lista celor cincisprezece au fost: Țările de Jos - 1,96 milioane de utilizatori de internet, Taiwan - 1,65 milioane, China - 1,58 milioane, Finlanda - 1,57 milioane și Norvegia - 1,34 milioane. Luate împreună, aceste 15 țări reprezintă 89% din „populația” internetului din lume.

    Astfel, în prezent, s-a acumulat o cantitate mare de informații, ceea ce este imposibil de prelucrat manual de către oameni (datorită caracteristicilor lor psihofizice).

    Un instrument eficient pentru procesarea unei cantități mari de informații este un computer electronic. (CALCULATOR).

    Unul dintre principalii factori în accelerarea progresului științific și tehnologic este utilizarea pe scară largă noile tehnologii informatice, care se intelege set de metode si mijloace colectarea, prelucrarea și transmiterea datelor (informații primare) pentru a obține informații de o nouă calitate despre starea unui obiect, proces sau fenomen pe baza tehnologiei informatice și a comunicațiilor și a utilizării pe scară largă a metodelor matematice.

    Există două forme de prezentare a informațiilor - continuu (analogic) si intermitent (digital, discret). Forma continuă caracterizează un proces care nu are întreruperi și se poate schimba teoretic în orice moment și cu orice valoare (de exemplu, vorbirea umană, o piesă muzicală). Semnalul digital se poate schimba numai în anumite momente și poate lua doar valori predeterminate (de exemplu, numai valori de tensiune de 0 și 3,5 V). Momentele unei posibile modificări a nivelului unui semnal digital sunt stabilite de generatorul de ceas al unui anumit dispozitiv digital.

    Pentru a converti un semnal analogic într-un semnal digital, este necesar să eșantionați semnalul continuu în timp, să cuantificați după nivel și apoi să codificați valorile selectate.

    Prelevarea de probe- înlocuirea unui semnal continuu (analogic) cu o succesiune de mostre ale acestui semnal separate în timp. Cea mai comună este discretizarea uniformă, care se bazează pe teorema lui Kotelnikov.

    Figura prezintă schematic procesul de conversie a unui semnal analogic într-un semnal digital. Semnalul digital în acest caz poate lua doar cinci niveluri diferite. Desigur, calitatea unei astfel de transformări este scăzută. Din figură se poate observa că o modificare a semnalului digital este posibilă numai în anumite momente în timp (în acest caz, există unsprezece dintre aceste puncte).

    După o astfel de transformare, un semnal continuu este reprezentat printr-o succesiune de numere. Semnalul continuu prezentat în figură este înlocuit cu numerele 2-3-4-4-4-3-2-2-3-4-4. Apoi numerele zecimale enumerate sunt convertite (codificate) într-o secvență de unu și zero. Rezultatele acestei transformări pot fi prezentate într-un tabel:

    După o astfel de transformare, un semnal continuu este reprezentat printr-o succesiune de numere. Semnalul continuu prezentat în figură este înlocuit cu numerele 2-3-4-4-4-3-2-2-3-4-4. Apoi numerele zecimale enumerate sunt convertite (codificate) într-o secvență de unu și zero.

    Prima idee despre modalitățile analogice și digitale de stocare și distribuire a informațiilor poate fi obținută luând în considerare două moduri de înregistrare a semnalelor audio: înregistrările audio analogice și digitale.

    În înregistrarea audio analogică, un semnal electric continuu generat de o sursă de sunet la ieșirea unui microfon este aplicat pe o bandă magnetică în mișcare folosind un cap magnetic. Dezavantajul metodei analogice de procesare a informațiilor este că copia este întotdeauna mai proastă decât originalul.

    Înregistrarea audio digitală utilizează un proces de eșantionare care măsoară periodic nivelul (intensitatea) unui semnal audio analogic (cum ar fi ieșirea unui microfon) și convertește valoarea rezultată într-o secvență de numere binare. Pentru a converti un semnal analog în digital, se folosește un convertor special, numit convertor analog-digital (ADC). Semnalul de la ieșirea ADC este o secvență de numere binare care pot fi scrise pe un disc laser sau procesate de un computer. Conversia inversă a unui semnal digital într-un semnal continuu se realizează folosind un convertor digital-analogic (DAC).

    Calitatea conversiei analog-digital este caracterizată de un parametru numit rezoluție. Rezoluția este numărul de niveluri de cuantizare utilizate pentru a înlocui un semnal analogic continuu cu un semnal digital. Eșantionarea pe opt biți permite doar 256 de niveluri diferite de cuantificare a semnalului digital și eșantionarea pe șaisprezece biți - 65.536 de niveluri.

    Un alt indicator al calității transformării unui semnal continuu într-un semnal digital este rata de eșantionare - numărul de conversii analog-digitale (eșantioane) efectuate de dispozitiv într-o secundă.

    Acest indicator este măsurat în kiloherți (kiloherți - o mie de mostre pe secundă). O rată de eșantionare tipică pentru discurile audio laser moderne este de 44,1 kHz.

    Există o tendință către o reprezentare digitală unică a tuturor tipurilor de informații. Rețeaua globală de internet pretinde că reunește toate mijloacele de difuzare și comunicare, computere, telefon, rețele radio și video, legându-le într-un singur „ciberspațiu”.

    1.8 teoria informației, acest termen este folosit în mod formal pentru a cuantifica o serie de articole în termeni de număr de opțiuni pe care le are oricine care se ocupă de acele elemente. Prin definiție, cantitatea de informații, măsurată în biți și prescurtată ca H, conținută într-o serie de opțiuni echiprobabile este exprimată ca log2 N, unde N este numărul de opțiuni. Astfel, răspunsul la întrebarea: „Plouă?” – va oferi un bit de informație deoarece există doar două opțiuni (da sau nu) și log2 2=1. (Rețineți că nu contează dacă răspunsul este adevărat sau nu.) Dacă alegeți dintre 16 alternative la fel de probabile, acea alegere va oferi 4 biți de informații (log216 = 4). În general, cu cât un eveniment este mai puțin probabil, cu atât sunt transmise mai multe informații odată cu apariția lui.

    Interesant este că această utilizare a informațiilor este paralelă cu ceea ce fizicienii cunosc ca entropie sau aleatorie. Atunci când o mulțime este foarte structurată și nu este caracterizată de aleatorie, atât exponenții de entropie, cât și de informație sunt scăzuti. Acest sens al termenului, deci, nu este legat de ceea ce se comunică, ci de ceea ce ar putea fi comunicat; prin urmare, ar trebui să se distingă conceptual de 2. 2. Sensul liber: orice material cu conținut. Acest sens al termenului este apropiat de sensul standard în utilizarea non-specială. Informația de aici este în principiu orice cunoaștere care este primită, procesată și înțeleasă. Când conceptul de tipare de procesare a informațiilor a fost introdus pentru prima dată în psihologia cognitivă, termenul de informație a fost folosit în sensul de 1. Cu toate acestea, dificultatea de a determina cât de multă informație este conținută în ceva și, prin urmare, procesată de cineva care are de-a face cu o relație relativ directă. dar mesajul complex (de exemplu, această propoziție) a condus rapid la o prejudecată spre o valoare de 2.

    INFORMAȚIE

    informație; Informație) se referă la toate acele date care ajung la o persoană din exterior prin diverse canale senzorio-perceptuale și senzorio-motorii, precum și la acele date care au fost deja prelucrate de sistemul nervos central, interiorizate și reinterpretate de o persoană și prezentat în capul lui sub formă de reprezentări mentale. . Turnarea cognitivă în știință a plasat în centrul intereselor de cercetare, în primul rând, informația cognitivă ca informație specific umană dobândită în experiența de cunoaștere a lumii în timpul percepției și generalizării acestei experiențe. De fapt, subiectul științei cognitive este informația mentală, pe care J. Fodor o definește drept „cod intern”; J. Miller și F. Johnson-Laird înțeleg informația mentală ca o „structură conceptuală” [Miller, Johnson-Laird 1976]; R.Jackendoff se referă la sarcinile teoriei cognitive studiul structurii informaţiei mentale şi principiile „calculării” (calculării) a acestor informaţii. Informațiile mentale sunt legate de diverse spații mentale, al căror conținut poate fi atât informații despre lumea reală, cât și despre planuri, credințe, intenții etc. Informația conceptuală este considerată ca rezultat al activității cognitive umane, ca acea informație semnificativă care a devenit deja un produs al prelucrării umane și al structurării cunoștințelor. Informațiile conceptuale apar în procesul de înțelegere a tuturor informațiilor primite. canale diferite informații și pot include atât informații despre starea obiectivă a lucrurilor din lume, cât și informații despre lumi posibile și starea de lucruri din acestea.

    INFORMAȚIE

    din lat. informatio - clarificare, prezentare) - inițial - orice informație transmisă de persoane verbal, în scris sau în alte moduri; de la mijlocul secolului al XX-lea. - un concept științific general care include schimbul de informații între oameni, oameni și dispozitive tehnice, dispozitive tehnice, schimbul de semnale în lumea vegetală și animală, transferul de semne de la celulă la celulă, de la organism la organism. În conflictologie, abordarea informațională a studiului și reglementării conflictelor nu a fost încă fundamentată, necesitatea și importanța acesteia nefiind recunoscute din cauza tinereții științei. Abordarea informațională în conflictologie m. b. aplicat în patru domenii principale. 1. Domeniul de aplicare al studiului conflictelor reale, fiecare dintre acestea putând fi supus analizei informatice-sistem. Orice decizii și acțiuni întreprinse de participanții la conflict se bazează pe modelele informaționale ale situației conflictuale pe care le au. Procesul de interacțiune a conflictului în sine este un schimb de informații între participanții la conflict. Cheia înțelegerii conflictelor constă în studiul mediului informațional, în condițiile și sub influența cărora acestea apar, se dezvoltă și se termină. 2. Stereotipurile comportamentului oamenilor în conflicte sunt rezultatul impactului informațional al experienței de viață umane. Studiul ce tipuri de I. și cum formează motivele inconștiente ale acțiunilor conflictuale umane în viitor este o direcție importantă în studiul și reglementarea conflictelor. 3. Influența unei terțe părți asupra conflictului în scopul soluționării sale constructive este de natură informațională. Suportul informațional de înaltă calitate pentru gestionarea conflictelor este o condiție cheie pentru munca de succes a unui conflictolog. 4. Conflictologia însăși este cunoștințe științifice despre conflicte, a căror desfășurare este supusă legilor de primire, transmitere și stocare I. În secolul al XX-lea. autorii a 607 disertaţii de conflictologie au folosit în cercetările lor circa 10% din I. disponibile asupra problemei în ştiinţa pe care o reprezintă, iar circa 1% din I. din ştiinţele conexe. Dificultăţi în diseminarea conflictologică I. împiedică dezvoltarea ştiinţei.

    INFORMAȚIE

    din lat. informare - a compune un concept despre ceva) - un set de informații care reduce incertitudinea în alegerea diverselor posibilități. În psihologia ingineriei - orice modificări ale procesului controlat afișate pe modelul informațional sau percepute direct de către operator, precum și comenzi, indicii ale necesității implementării anumitor influențe asupra procesului de control. Orice mesaj este informativ dacă reprezintă ceva ce nu știam înainte de acest mesaj. Un mesaj este o colecție de informații despre un sistem fizic. În raport cu activitatea operatorului, un mesaj este un ansamblu de semnale vizuale, acustice și de altă natură percepute la un moment dat, precum și „semnale” stocate în memoria operatorului. Mesajul capătă sens (conține o anumită cantitate de informații) doar atunci când starea sistemului nu este cunoscută dinainte, întâmplător, adică sistemul are un anumit grad de incertitudine în avans. Conceptul de entropie este folosit ca măsură a incertitudinii. Incertitudinea unui sistem este redusă prin obținerea oricăror informații despre acest sistem. Cu cât cantitatea de informații primite este mai mare, cu atât este mai semnificativă, cu atât puteți avea mai multe informații despre sistem. Prin urmare, este firesc să se măsoare cantitatea de informație printr-o scădere a entropiei sistemului pentru care informația este destinată să clarifice starea. Dacă entropia inițială (a priori) a sistemului a fost H(X) și după primirea informațiilor despre acest sistem (de exemplu, după actualizarea informațiilor de pe mijloacele de afișare), entropia a devenit H0 (X), atunci cantitatea de informatia primita este: 1 = H(X) -H0 (X). În cazul practic important când, după primirea informațiilor, starea sistemului a devenit complet definită, adică H0 (X) = 0, cantitatea de informații primite este egală cu entropia sistemului: 1 = H (X). Folosit în activităţile operatorului I. se clasifică după o serie de criterii. La programare, I. poate fi de comandă (da instrucțiuni privind necesitatea anumitor acțiuni) și informativ (oferă o idee despre situația actuală). Prin natura sa, I. poate fi relevant (util într-o situație dată) și irelevant (inutil într-o situație dată; astfel de I. poate fi nociv și din punctul de vedere al eficienței muncii operatorului, atunci se numește piedică) . Și, în sfârșit, din punct de vedere al completității, I. se împarte în redundant și neredundant. Introducerea redundanței (imagine, limbaj natural etc.) este instrument eficient anti-interferență, crește imunitatea la zgomot a operatorului. Cantitatea de radiație transmisă operatorilor de la mijloacele de afișare la comenzi poate diferi semnificativ de cantitatea de radiație primită (entropia sursei de radiație). Această diferență se datorează, în primul rând, faptului că, ca și pentru un canal de comunicare tehnică, o parte din informația H p6m se poate pierde din cauza interferențelor. În al doilea rând, numărul de I. crește datorită utilizării unui I suplimentar. Se formează prin implicarea unor date stocate în memoria operatorului și, de asemenea, dacă, în procesul de rezolvare a unei probleme, operatorul trebuie să efectueze orice calcule, verificați condițiile logice sau amintiți-vă unele informații. Prin urmare, în cazul general, cantitatea de I. prelucrată de operator este N = N + N - N. Unitatea de măsură pentru cantitatea de I. este o unitate binară, sau bit. Un pic este entropia celui mai simplu sistem care are două stări equiprobabile. Operatorul primește o unitate binară (un bit) atunci când alege unul dintre cele două semnale la fel de probabile. Psihologia ingineriei și ergonomia studiază caracteristici ale inteligenței, cum ar fi cantitatea, valoarea, fiabilitatea, redundanța și siguranța acesteia, precum și procesele informaționale precum codarea, compresia, îmbătrânirea, dispersia și reproducerea inteligenței.