Abordare cibernetică (alfabetică) a măsurării informației. Au loc două loterie. Exemple de rezolvare a problemelor

Lucrare de laborator nr 1

Măsurarea informațiilor (abordarea conținutului)

1 bit– cantitatea de informații care reduce incertitudinea cunoașterii la jumătate. Problemele pe această temă sunt legate de utilizarea formulei lui R. Hartley:

i = log 2 N sau 2 i = N,

unde i este cantitatea de informații, N este numărul de rezultate la fel de probabile ale evenimentului.

Există două opțiuni posibile pentru condițiile sarcinii:

1) dat N, găsiți i;

dat fiind i, găsiți N.

Evenimente la fel de probabile

La competiție participă 1,4 echipe. Câte informații există în mesajul că echipa a treia a câștigat?

– Mesajul reduce incertitudinea inițială de exact patru ori (de două ori de două) și transportă doi biți de informații.

2. Mingea se află într-una din cele 64 de cutii. Câte informații va conține mesajul despre locul unde se află mingea?

6 biți (64 = 2 6)

3. La ghicirea unui număr întreg într-un anumit interval, au fost primiți 8 biți de informații. Câte numere conținea acest interval?

5. Câte informații transmite mesajul că o regină de pică a fost extrasă dintr-un pachet de 32 de cărți?

Soluția la această problemă ar trebui descrisă după cum urmează: când cărțile sunt extrase aleatoriu dintr-un pachet amestecat, nicio carte nu are un avantaj față de celelalte care trebuie alese. În consecință, selecția aleatorie a oricărei cărți, inclusiv a reginei de pică, este un eveniment la fel de probabil. Rezultă că incertitudinea cunoștințelor despre rezultatul scoaterii unei cărți este egală cu 32 - numărul de cărți din pachet. Dacă i este cantitatea de informații din mesaj despre rezultatul extragerii unei cărți (regina de pică), atunci avem ecuația

Deoarece 32= 2 5, deci i = 5 biți.

6. Bila se află într-una din cele trei urne: A, B sau C. Stabiliți câte biți de informații conține mesajul pe care se află în urna B.

Un astfel de mesaj conține I = log 2 3 = 1,585 biți de informații.

7. Arunci două zaruri cu numere de la 1 la 6 imprimate pe părțile laterale Stabilește câte biți de informații poartă mesajul că un zar a venit cu un trei și celălalt cu un cinci.

log 2 6 + log 2 6 = 2,585 + 2,585 = 5,17 (biți)

8. Există două loterie: „4 din 32” și „5 din 64”. Mesajul despre rezultatele cărei loterie conține mai multe informații?

Prima soluție este banală: tragerea oricărui număr dintr-o tobă de loterie este un eveniment la fel de probabil. Prin urmare, la prima loterie cantitatea de informații din mesaj despre un număr este de 5 biți (2 5 = 32), iar în a doua - 6 biți (2 6 = 64). Mesajul despre patru numere de la prima loterie poartă 5x4 = 20 de biți. Mesajul despre cinci numere de la a doua loterie poartă 6x5 = 30 de biți. În consecință, mesajul despre rezultatele celei de-a doua loterie poartă mai multe informații decât despre prima.

Dar acest mod de raționament este posibil. Imaginează-ți că te uiți la o tragere la loterie. Prima bilă este selectată dintre cele 32 de bile din tobă. Rezultatul conține 5 biți de informații. Dar a 2-a bilă va fi selectată din 31 de numere, a 3-a dintre 30 de numere, a 4-a din 29. Aceasta înseamnă că cantitatea de informații transportată de al 2-lea număr este găsită din ecuație:

2 i = 31, de aici i= 4,95420 băţ.

Pentru numărul 3: 2"= 30 ;i = 4,90689 băţ.

Pentru numărul 4: 2"= 29 ; i = 4,85798 băţ.

În total obținem: 5 + 4,95420 + 4,90689 + 4,85798 = 19,71907 băţ.

iar plasarea unui banner este OBLIGATORIE!!!

Dezvoltarea unei lecții pe tema: „Cum se măsoară informația”

Secțiuni de manuale: § 2. Material suplimentar: partea 2, secțiunea 1.1.

Obiective de bază. Extindeți conceptul de informativitate a unui mesaj din punct de vedere subiectiv (substantiv) al informației. Introduceți unitatea de măsură a informațiilor - bit. Învață să calculezi cantitatea de informații în cazul particular al raportării unui eveniment cu o probabilitate cunoscută (dintr-o mulțime finită dată).

Întrebări studiate:

o Ce determină conținutul informațional al unui mesaj primit de o persoană?

o Unitatea de măsură a informațiilor.

o Cantitatea de informații dintr-un mesaj despre unul dintre N evenimente la fel de probabile.

1. Acest subiect folosește conceptul de „mesaj”, care este intuitiv pentru studenți. Cu toate acestea, poate fi nevoie să descifrem acest concept. Un mesaj este un flux de informații care, în procesul de transmitere a informațiilor, ajunge la receptor. Mesajul este discursul pe care îl ascultăm (un mesaj radio, explicația unui profesor) și imaginile vizuale pe care le percepem (un film la televizor, un semafor) și textul unei cărți pe care o citim etc.

2. Problema caracterului informativ al mesajului ar trebui discutată folosind exemple oferite de profesor și elevi. Regula: informativ este un mesaj care adaugă la cunoștințele unei persoane, de exemplu. poartă informații pentru el. Pentru persoane diferite, același mesaj în ceea ce privește conținutul său informativ poate fi diferit. Dacă informația este „veche”, adică persoana știe deja acest lucru, sau conținutul mesajului nu este clar pentru persoana respectivă, atunci pentru el acest mesaj nu este informativ. Un mesaj informativ este unul care conține informații noi și ușor de înțeles.

Încă o dată aș dori să subliniez complexitatea cognitivă (pentru elevi) și metodologică (pentru profesor) a acestui material. Conceptele de „informație” și „conținutul informativ al unui mesaj” nu pot fi echivalate. Următorul exemplu ilustrează diferența de concepte. Întrebare:

„Un manual universitar de matematică superioară conține informații din punctul de vedere al unui elev de clasa întâi?” Răspuns: „Da, din orice punct de vedere, pentru că manualul conține cunoștințele oamenilor: autorii manualului, creatorii aparatului matematic (Newton, Leibniz etc.), matematicienii moderni.” Acest adevăr este absolut. O altă întrebare: „Textul acestui manual va fi informativ pentru un elev de clasa întâi dacă încearcă să-l citească Cu alte cuvinte, poate un elev de clasa întâi să-și extindă propriile cunoștințe cu ajutorul acestui manual?” Evident, răspunsul este nu. Citirea unui manual, de ex. atunci când primește mesaje, un elev de clasa întâi nu va înțelege nimic și, prin urmare, nu îl va transforma în propriile cunoștințe. Introducerea conceptului de „informativitatea mesajului” este prima abordare a studiului problemei de măsurare a informațiilor. Dacă un mesaj este neinformativ pentru o persoană, atunci cantitatea de informații din el, din punctul de vedere al acestei persoane, este zero. Cantitatea de informații dintr-un mesaj informativ este mai mare decât zero.

Când explicați acest subiect, puteți invita elevii să joace un fel de test. De exemplu, profesorul oferă copiilor o listă de întrebări, răspunsurile la care le notează în tăcere pe hârtie. Dacă elevul nu știe răspunsul, pune un semn de întrebare. După aceasta, profesorul dă răspunsurile corecte la întrebările sale, iar elevii, după ce au notat răspunsurile profesorului, notează care dintre răspunsuri s-a dovedit a fi informativ pentru ei (+) și care nu au fost (-). În același timp, pentru mesajele marcate cu minus, trebuie să indicați motivul lipsei de informații: nu este nou (știu asta), de neînțeles. De exemplu, lista de întrebări și răspunsuri ale unuia dintre elevi poate fi ca în tabelul de la p. 6. 3. Definiția unui bit - o unitate de măsură a informațiilor - poate fi greu de înțeles. Această definiție conține conceptul de „incertitudine a cunoașterii”, care este necunoscut copiilor. În primul rând, trebuie să-l deschideți. Profesorul ar trebui să știe bine că vorbim despre un caz cu totul special: un mesaj care conține informații că „a avut loc unul dintr-un set finit (N) de evenimente posibile. De exemplu, rezultatul aruncării unei monede, a unui zar de joc; scoaterea unui card de examen, etc. .p. Incertitudinea cunoștințelor despre rezultatul unui eveniment este numărul de opțiuni posibile de rezultat pentru o monedă, pentru un cub, pentru bilete - 30 (dacă au fost 30 bilete pe masă).

Întrebarea profesorului

Răspunsul elevului

Mesajul profesorului

Informativitatea mesajului

Motivul lipsei de informare

1. Care oraș este capitala Franței?

Capitala Franței este Paris

Capitala Franței este Paris

2. Ce studiază chimia coloidului?

Chimia coloidală studiază stările de dispersie ale sistemelor cu un grad ridicat de fragmentare

De neînţeles

3. Care este înălțimea și greutatea Turnului Eiffel?

Turnul Eiffel are 300 de metri înălțime și cântărește 9000 de tone

4. O altă dificultate este conceptul de echiprobabilitate. Aici ar trebui să plecăm de la ideea intuitivă a copiilor, susținând-o cu exemple. Evenimentele sunt la fel de probabile dacă niciunul dintre ele nu are un avantaj față de ceilalți. Din acest punct de vedere, capete și cozi sunt la fel de probabile; pierderea uneia dintre cele șase laturi ale cubului este la fel de probabilă. Este util să oferim exemple de evenimente inegal probabile. De exemplu, într-un raport meteo, în funcție de sezon, informațiile despre dacă va ploua sau ninge pot avea o probabilitate diferită. Ploaia este cel mai probabil să fie semnalată vara, zăpada este cel mai probabil să fie semnalată iarna, iar în perioada de tranziție (martie sau noiembrie) pot fi la fel de probabile. Conceptul de „eveniment mai probabil” poate fi explicat prin concepte înrudite: mai așteptat, care se produce mai des în condiții date. Ca parte a cursului de bază, studenții nu au sarcina de a înțelege definiția strictă a probabilității sau capacitatea de a calcula probabilitatea. Dar trebuie să obțină o idee despre evenimente la fel de probabile și inegal de probabile. Elevii ar trebui să învețe să dea exemple de evenimente la fel de probabile și inegal de probabile.

Dacă aveți timp de clasă, este util să discutați cu elevii noțiunile de „un anumit eveniment” - un eveniment care se va întâmpla cu siguranță și „eveniment imposibil”. Puteți începe de la aceste concepte pentru a introduce o idee intuitivă a măsurării probabilității. Este suficient să spunem că probabilitatea unui eveniment de încredere este 1, iar cea a unui eveniment imposibil este 0. Acestea sunt valori extreme. Aceasta înseamnă că în toate celelalte cazuri „intermediare” valoarea probabilității se află între zero și unu. În special, probabilitatea fiecăruia dintre cele două evenimente la fel de probabile este 1/2. Pentru un studiu aprofundat al cursului de bază, ar trebui să consultați secțiunea 1.1 „Probabilitate și informații” din partea a doua a manualului.

5. Manualul oferă următoarea definiție a unei unități de informație: „Un mesaj care reduce incertitudinea cunoașterii de 2 ori transportă 1 bit de informație”. Puțin mai departe este o definiție pentru un caz special: „Mesajul că unul dintre cele două evenimente la fel de probabile a avut loc conține 1 bit de informații.” Un profesor care preferă o metodă inductivă de explicație poate începe cu a doua definiție. Discutând exemplul tradițional cu o monedă (capete-cozi), trebuie remarcat că primirea unui mesaj despre rezultatul aruncării unei monede reduce incertitudinea cunoașterii la jumătate: înainte de aruncarea monedei existau două opțiuni la fel de probabile, după primirea monedei. mesaj despre rezultat a mai rămas doar unul. Mai mult, trebuie spus că pentru toate celelalte cazuri de mesaje despre evenimente la fel de probabile, când incertitudinea cunoașterii este redusă la jumătate, se transmite 1 bit de informație. Profesorul poate completa exemplele date în manual cu altele și, de asemenea, poate invita elevii să vină cu propriile lor exemple. În mod inductiv, din exemple particulare, profesorul și clasa ajung la o formulă generalizată: 2i= N. Aici N este numărul de opțiuni pentru evenimente la fel de probabile (incertitudinea cunoștințelor) și i este cantitatea de informații din mesajul respectiv. din N evenimente au avut loc. Dacă N este cunoscut și i este o cantitate necunoscută, atunci această formulă se transformă într-o ecuație exponențială. După cum știți, o ecuație exponențială poate fi rezolvată folosind funcția de logaritm: i=log2N. Aici profesorului i se oferă două opțiuni posibile:

fie explicați ce este un logaritm înainte de lecțiile de matematică, fie „nu vă încurcați cu” logaritmi. În a doua opțiune, elevii ar trebui să ia în considerare rezolvarea ecuației pentru cazuri speciale când N este o putere întreagă de două: 2, 4, 8, 16, 32, - etc. Explicația urmează următoarea schemă:

DACĂ N= 2= 21, atunci ecuația ia forma: 2i= 21, deci i = 1.

Dacă N = 4 = 22, atunci ecuația ia forma: 2 i = 22, deci i == 2.

Dacă N = 8 == 23, atunci ecuația ia forma: 2 i = 23, deci i = 3 etc.

În general, dacă N = 2k unde k este un număr întreg, atunci ecuația devine 2i = 2k și, prin urmare, i = k. Este util pentru elevi să-și amintească un număr de puteri întregi de două, cel puțin până la 210 = 1024. Ei vor întâlni totuși aceste cantități în alte secțiuni.

Pentru acele valori ale lui N care nu sunt puteri întregi de două, soluția ecuației 2i = N poate fi obținută din tabelul din manualul din § 2. Nu este deloc necesar să le spunem elevilor că acesta este un tabelul de logaritmi la baza 2. De exemplu, dacă doriți să determinați câți biți de informații există, transmite un mesaj despre rezultatul aruncării unui zar cu șase fețe, trebuie să rezolvați ecuația: 2i = 6, deoarece 22< 6 < 23, то следует пояснить ученикам, что 2 < i < 3. Заглянув а таблицу, узнаем (с точностью до пяти знаков после запятой), что i= 2,58496 бита.

Problemele pe tema § 2 sunt legate de utilizarea ecuației 2i= N. Există două opțiuni posibile pentru condițiile problemelor:

1) dat N, găsiți i;

2) dat fiind i, găsiți N.

În cazurile în care N este egal cu o putere întreagă de doi, este recomandabil ca elevii să efectueze calcule „în cap”. După cum am menționat mai sus, este util să ne amintim seria de puteri întregi de 2 cel puțin până la 210. În caz contrar, ar trebui să utilizați Tabelul 1.1, care acoperă valorile lui N de la 1 la 64,

Pentru nivelul de studiu de bază al cursului de bază sunt oferite sarcini legate de raportarea evenimentelor la fel de probabile. Elevii trebuie să înțeleagă acest lucru și să fie siguri că îl justifică calitativ, folosind termenul „evenimente la fel de probabile”.

Exemplul 1. [I] Sarcina nr. 7 până la § 2. Câte biți de informații poartă mesajul că o regină de pică a fost luată dintr-un pachet de 32 de cărți?

Soluția la această problemă ar trebui descrisă după cum urmează: când cărțile sunt extrase la întâmplare și pachetul este amestecat, nicio carte nu are un avantaj față de celelalte care trebuie alese. În consecință, selecția aleatorie a oricărei cărți, inclusiv a reginei de pică, este un eveniment la fel de probabil. Rezultă că incertitudinea cunoștințelor despre rezultatul scoaterii unei cărți este egală cu 32 - numărul de cărți din pachet. Dacă i este cantitatea de informații din mesaj despre rezultatul scoaterii unei cărți (regina de pică), atunci avem ecuația;

Deoarece 32= 25, deci i = 5 biți.

Profesorul poate oferi mai multe sarcini pe tema acestei sarcini. De exemplu:

Câte informații sunt transmise de mesajul că un cartonaș roșu a fost extras dintr-un pachet de cărți? (1 bit, deoarece există același număr de cărți roșii și negre.)

Câte informații transmite mesajul că o carte cu diamante a fost luată dintr-un pachet de cărți? (2 biți, deoarece există 4 culori în pachet și numărul de cărți din ele este egal.)

Exemplul 2. [ 1 ] Sarcina nr. 8 până la § 2. Sunt organizate două loterie: „4 din 32” și „5 din 64”. Mesajul despre rezultatele cărei loterie conține mai multe informații?

Această sarcină are o „capcană” pe care profesorul o poate întâlni. Prima soluție este banală: tragerea oricărui număr dintr-o tobă de loterie este un eveniment la fel de probabil. Prin urmare, la prima loterie cantitatea de informații din mesaj despre un număr este de 5 biți (25 = 32), iar la a doua - 6 biți (26 = 64). Mesajul despre patru numere din prima loterie poartă 5x4 = 20 de biți. Mesajul despre cinci numere de la a doua loterie poartă 6x5 = 30 de biți. În consecință, mesajul despre rezultatele celei de-a doua loterie poartă mai multe informații decât despre prima.

Dar acest mod de raționament este posibil. Imaginează-ți că te uiți la o tragere la loterie. Prima bilă este selectată dintre cele 32 de bile din tobă. Rezultatul conține 5 biți de informații. Dar a 2-a bilă va fi selectată din 31 de numere, a 3-a dintre 30 de numere, a 4-a din 29. Aceasta înseamnă că cantitatea de informații transportată de al 2-lea număr se găsește din ecuația: 2i = 31.

Privind la tabelul 1.1, găsim: i= 4,95420 biți. Pentru al 3-lea număr: 2"= 30; r = 4,90689 biți. Pentru al 4-lea număr: 2"= 29; g= 4,85798 biți. În total obținem: 5 + 4,95420 + 4,90689 + 4,85798 = = 19,71907 biți.

rezumatul altor prezentări

„Abordarea alfabetică a măsurării informației” - Unități de măsurare a informațiilor. Volumul de informații al mesajului. Formularea soluției la problema nr. 3. Volumul informativ al textului. Numărul de mesaje informative posibile. Cantitatea de informații din mesaj. Unități. Traduceți. N din alfabetul literelor rusești este egal cu 32. Formularea soluției la problema nr. 2. Formularea soluției problemei. Alfabet. Cantitatea de informații. alfabet de 32 de caractere. Simbol text. Numărul de caractere din alfabetul sistemului de semne.

„Formulele Hartley și Shannon” - Formula Hartley. Număr. Eveniment. Formule Hartley și Shannon. Ofensator. Hartley. Cantitatea de informații. Sarcină. Inginerul american Hartley. Omul de știință american Claude Shannon. Formula lui Hartley: I=log2N unde I este cantitatea de informație, N este numărul. formula lui Shannon. Exemple de mesaje la fel de probabile. Scrierea formulei lui Shannon. Soluţie.

„Abordare substanțială a măsurării informațiilor” - Abordarea conținutului. Exemplu. Măsurarea informațiilor. Cum se măsoară informația. Regele de pică a fost luat din pachetul de cărți. Conținutul informațional al mesajului. Unitatea de măsură a informațiilor. Câte informații conține mesajul? Formula pentru calcularea cantității de informații. Una dintre celule este vopsită peste. Mesaj despre o margine lipsă cu numărul 3. Există opt rafturi pe raft.

„Cantitatea de informații în informatică” - Sarcini. Întrebări de control. Biblioteca școlii are 16 rafturi cu cărți. Mesaj despre rezultatul tragerii la sorți. Fiecare caracter este codificat ca un octet. Determinarea cantității de informații. Abordarea conținutului. Conversia unităților de măsură. Informații pentru oameni. Rezolvați problemele în caiet. Abordare alfabetică. Tabla de șah este formată din 64 de pătrate. Muncă independentă.

„Abordări pentru măsurarea informațiilor” - Evenimente de încredere și imposibile. Conţinut. Un alt mod de a măsura cantitatea de informații. Mesajul are 3 pagini de 25 de rânduri. Să facem un tabel din exemplele anterioare. Alfabet. Evenimente la fel de probabile. Incertitudinea cunoașterii. Pe parcursul trimestrului, elevul a primit 100 de note. Strategia de ghicire a numărului. Ce studiază chimia coloidului? Numărul de opțiuni pentru ca una dintre cele 6 părți să apară. Cum se măsoară cantitatea de informații.

„Unitatea cantității de informații” - O măsură de reducere a incertitudinii cunoașterii. Capacitatea de informare a semnului. Exemple de mesaje informative. Capacitatea de informare a semnului sistemului de semne binare. Cantitatea de informații. Abordare alfabetică. Formulă. Unități derivate. Pic. Numărul de mesaje informative posibile. Informațiile sunt codificate. Tip de ecuație. Mesaj primit. Numărul de semne. Anunţ. Determinarea cantității de informații.

Un bit este unitatea de bază a informației. Pe lângă acesta, sunt folosite și alte unități. Următoarea unitate ca mărime este un octet. Un octet este introdus ca greutatea informației a unui caracter dintr-un alfabet cu o putere de 256. Deoarece 256 = 28, atunci 1 octet = 8 biți.

Când introduceți studenților unități mai mari: kilobyte, megabyte, gigabyte, trebuie să acordați atenție faptului că suntem obișnuiți să percepem prefixul „kilo” ca o creștere de 1000 de ori. Nu este cazul în informatică. Un kilobyte este de 1024 de ori mai mare decât un octet, iar numărul 1024 = 210. Același lucru este valabil și pentru „mega” în raport cu „kilo”, etc. Cu toate acestea, un factor de 1000 este adesea folosit pentru valorile aproximative.

Ca parte a unui curs de aprofundare, profesorul poate prezenta abordarea alfabetică într-o versiune mai adecvată, fără a presupune equiprobabilitatea simbolurilor.

Multe manuale încep cu linia de conținut „Informații și procese informaționale” în același mod, cu faptul că conceptul „Informații” a devenit unul dintre conceptele fundamentale în știința modernă. Alături de conceptele de „materie”, „energie”, „spațiu” și „timp”. Ea formează baza tabloului științific al lumii.

2.3. Metodologie de rezolvare a problemelor pe teme din secțiunea „Informații”.

Sarcini pe tema „Măsurarea informațiilor. Abordarea conținutului" sunt asociate cu utilizarea ecuației 2i = N. Există două soluții posibile la problemă:

dat N, găsiți i;

Având în vedere i, găsiți N.

În cazurile în care N este egal cu o putere întreagă de doi, este recomandabil ca elevii să efectueze calcule „în cap”. După cum am menționat mai sus, este util să ne amintim seria de puteri întregi de 2, cel puțin până la 210. În caz contrar, ar trebui să utilizați tabelul de soluții pentru ecuația 2i = N, care acoperă valorile lui N de la 1 la 64.

Pentru nivelul de studiu de bază al cursului de bază sunt oferite sarcini legate de raportarea evenimentelor la fel de probabile. Elevii trebuie să înțeleagă acest lucru și să fie siguri că îl justifică calitativ, folosind termenul „evenimente la fel de probabile”.

Câte informații poartă mesajul că o regină de pică a fost extrasă dintr-un pachet de 32 de cărți?

Soluție: Când trageți aleatoriu cărți dintr-un pachet amestecat, nicio carte nu are avantajul de a fi aleasă față de celelalte. În consecință, selecția aleatorie a oricărei cărți, inclusiv a reginei de pică, este un eveniment la fel de probabil. Rezultă că incertitudinea cunoștințelor despre rezultatul extragerii unei cărți este egală cu 32 - numărul de cărți din pachet. Dacă i este cantitatea de informații din mesaj despre rezultatul extragerii unei cărți (regina de pică), atunci avem ecuația:

Deoarece 32 = 25, atunci i = 5 biți.

Profesorul poate oferi mai multe sarcini pe tema acestei sarcini. De exemplu: câte informații sunt transmise de mesajul că un cartonaș roșu a fost luat dintr-un pachet de cărți? (1 bit, deoarece există același număr de cărți roșii și negre).

Câte informații transmite mesajul că o carte cu diamante a fost luată dintr-un pachet de cărți? (2 biți, deoarece există patru culori în pachet și numărul de cărți din ele este egal).

Există două loterie: „4 din 32” și „5 din 64”. Mesajul despre rezultatele cărei loterie conține mai multe informații?

Soluție: Această sarcină are o „capcană” pe care profesorul o poate întâlni. Prima soluție este banală: tragerea oricărui număr dintr-o tobă de loterie este un eveniment la fel de probabil. Prin urmare, la prima loterie cantitatea de informații dintr-un mesaj despre un număr este de 5 biți (25 = 32), iar în a doua - 6 biți (26 = 64). Mesajul despre patru numere din prima loterie poartă 5 * 4 = 20 de biți. În consecință, mesajul despre rezultatele celei de-a doua loterie poartă mai multe informații decât rezultatele primei.

Dar este posibil și un alt mod de raționament. Imaginează-ți că te uiți la o tragere la loterie. Prima bilă este selectată dintre cele 32 de bile din tobă. Rezultatul conține 5 biți de informații. Dar a doua bilă va fi selectată din 31 de numere, a treia dintre 30 de numere, a patra din 29. Aceasta înseamnă că cantitatea de informații transportată de al doilea număr se găsește din ecuația: 2i = 31. Folosind tabelul pentru rezolvarea acestui lucru ecuație, găsim: i = 4 ,95420 biți, pentru al treilea număr: 2 i = 30; i = 4,90689 biți, pentru al patrulea număr: 2 i = 29; i = 4,85798 biți. În total obținem: 5 + 4,95420 + 4,85798 + 4,90689 = 19,71907 biți. La fel și pentru a doua loterie. Desigur, astfel de calcule nu vor afecta concluzia finală. Era posibil, fără a calcula nimic, să răspund imediat că al doilea mesaj poartă mai multe informații decât primul. Dar ceea ce este interesant aici este modul de calcul ținând cont de „abandonul participanților”.

Secvența evenimentelor în acest caz nu este independentă una de alta (cu excepția primului). Acest lucru, după cum am văzut, se reflectă în diferența de conținut informațional al mesajului despre fiecare dintre ele. Prima soluție (trivială) a problemei a fost obținută sub ipoteza independenței evenimentelor și este în acest caz inexactă.

În contextul sarcinilor pe tema „Măsurarea informațiilor. Abordare alfabetică” sunt interconectate următoarele mărimi: puterea alfabetului simbolic – N; ponderea informațională a simbolului – i; numărul de caractere din text (volumul textului) – K; cantitatea de informaţie cuprinsă în text (volumul de informaţie al textului) – I. În plus, la rezolvarea problemelor se cere cunoaşterea relaţiei dintre diverse unităţi de informaţie: bit, octet, KB, MB, GB.

Problemele corespunzătoare nivelului conținutului minim al cursului de bază au în vedere doar aproximarea unui alfabet la fel de probabil, adică. presupunerea că apariția oricărui personaj în orice poziție din text este la fel de probabilă. Problema de nivel avansat folosește o ipoteză mai realistă despre probabilitatea inegală a simbolurilor. În acest caz, apare un alt parametru - probabilitatea simbol (p).

Soluție: Într-o aproximare echiprobabilă, volumul de informații al unui text este egal cu produsul dintre numărul de caractere și greutatea informațiilor unui caracter:

Deoarece ambele texte au același număr de caractere (K), diferențele de volume de informații sunt determinate doar de diferența de conținut de informații al caracterelor alfabetului (i). Să găsim i1 pentru primul alfabet și i2 pentru al doilea alfabet:

2i1 = 32, deci i1 = 5 biți;

2i2 = 64, deci i2 = 6 biți.

În consecință, volumele de informații ale primului și celui de-al doilea text vor fi egale:

I1 = K*5 biți, I2 = K*6 biți.

Rezultă că cantitatea de informații din al doilea text este de 6/5 sau de 1,2 ori mai mare decât în ​​primul.

Sarcini pe tema „Informații”

1. Prezentarea informațiilor.

1. Să presupunem că în limba „marțiană” expresia lot do may înseamnă că pisica a mâncat șoarecele; may si – mouse gri; ro do - a mâncat. Cum se scrie „pisica gri” în limba „marțiană”?

Raspuns: lot si.

2. Expresia într-o anumită limbă „Kalya malya” tradusă în rusă înseamnă „Soarele roșu”, „Falya malya bala” - „Big Red Pear”, „Tsalya bala” - „Big Apple”. Cum se scriu cuvintele: peră, măr, soare în această limbă?

Răspuns: „Tsalya” - „Mer”, „Balya” - „Pere”, „Kalya” - „Soare”.

Întrebări studiate:

ª Ce este alfabetul, puterea alfabetului.

ª Care este greutatea informațională a unui simbol în alfabet.

ª Cum se măsoară volumul informațional al unui text din punct de vedere alfabetic.

ª Ce este un octet, kilobyte, megabyte, gigabyte.

ª Viteza fluxului de informații și capacitatea canalului.

Abordarea de măsurare a informațiilor discutată în acest subiect este o alternativă la abordarea de conținut discutată mai devreme. Aici vorbim despre măsurarea cantității de informații dintr-un text (mesaj simbolic) compus din caractere ale unui alfabet. Această măsură a informației nu are nimic de-a face cu conținutul textului. Prin urmare, această abordare poate fi numită obiectivă, adică. independent de subiectul care o percepe.

Abordarea alfabetică este singura modalitate de măsurare a informației care poate fi aplicată informațiilor care circulă în tehnologia informației, în calculatoare.

Conceptul cheie în acest subiect este alfabet. Un alfabet este un set finit de simboluri folosite pentru a reprezenta informații. Se numește numărul de caractere din alfabet puterea alfabetului(termenul este preluat din teoria mulţimilor matematice). În conținutul principal al cursului de bază, abordarea alfabetică este luată în considerare numai din perspectivă aproximare la fel de probabilă. Aceasta înseamnă că se poate presupune că probabilitatea de apariție a tuturor caracterelor alfabetului în orice poziție din text este aceeași. Desigur, acest lucru nu corespunde realității și este o presupunere simplificatoare.

În aproximarea luată în considerare, cantitatea de informații pe care fiecare caracter (i) o poartă în text este calculată din ecuația lui Hartley: 2 i = N, unde N este puterea alfabetului. Valoarea i poate fi numită greutatea informațională a simbolului. Rezultă că cantitatea de informații din întregul text (i), constând în LA simboluri este egal cu produsul ponderii informaționale a simbolului prin K: eu= eu' LA. Această valoare poate fi numită volumul de informații al textului. Această abordare de măsurare a informațiilor se mai numește abordare volumetrică.

Este util să discutăm cu elevii următoarea întrebare: care este puterea minimă a alfabetului cu care se pot scrie (codifica) informațiile? Această întrebare este direct legată de sarcina nr. 3 la § 3 din manual, care sună astfel: „Demonstrați că, pe baza abordării alfabetice, un mesaj de orice lungime folosind un alfabet cu un singur caracter conține zero informații.”

Să presupunem că alfabetul folosit este format dintr-un singur caracter, cum ar fi „1”. Intuitiv, este imposibil să comunici ceva folosind un singur simbol. Dar acest lucru este dovedit strict din punctul de vedere al abordării alfabetice. Greutatea informațională a unui simbol într-un astfel de alfabet se găsește din ecuația: 2 i = 1. Dar, deoarece 1 = 2°, rezultă că i = 0 biți. Concluzia obținută poate fi ilustrată prin următorul exemplu figurativ. Imaginează-ți o carte groasă de 1000 de pagini, toate paginile fiind scrise cu aceleași unități (singurul simbol al alfabetului folosit). Câte informații conține? Răspuns: deloc, zero. Mai mult, un astfel de răspuns poate fi obținut din orice poziție, atât de fond, cât și alfabetic.

Puterea minimă a unui alfabet adecvat pentru transmiterea informațiilor este 2. Acest alfabet se numește alfabet binar. Greutatea informațională a unui caracter din alfabetul binar este ușor de determinat. Deoarece 2 i = 2, atunci i = 1 bit. Asa de, Un caracter al alfabetului binar poartă 1 bit de informații. Elevii se vor confrunta din nou cu această împrejurare când se vor familiariza cu alfabetul limbajului intern al computerului - limbajul de codificare binar.

Un bit este unitatea de bază a informației. Pe lângă acesta, sunt folosite și alte unități. Elevii ar trebui să acorde atenție faptului că în orice sistem metric există unități de bază (standard) și derivate din acestea. De exemplu, unitatea fizică de bază a lungimii este metrul. Dar există un milimetru, un centimetru, un kilometru. Este convenabil să exprimați distanțe de dimensiuni diferite în unități diferite. Același lucru este valabil și cu măsurarea informațiilor. 1 bit este unitatea originală. Următoarea unitate ca mărime este un octet. Un octet este introdus ca greutatea informatiei a unui caracter dintr-un alfabet cu o putere de 256. Deoarece 256 = 2 8, atunci 1 octet = 8 biti. Întâlnim din nou un subiect care este un fel de propedeutic pentru viitorul studiu al computerelor.

Deja în cadrul acestui subiect, puteți informa studenții că computerul folosește un alfabet cu o capacitate de 256 pentru a reprezenta în exterior texte și alte informații simbolice(în reprezentarea internă, orice informație dintr-un computer este codificată în alfabet binar). De fapt, pentru a exprima cantitatea de informații computerizate, octetul este folosit ca unitate de bază.

Când introduceți studenților unități mai mari: kilobyte, megabyte, gigabyte, trebuie să le atrageți atenția asupra faptului că suntem obișnuiți să percepem prefixul „kilo” ca o creștere de 1000 de ori. Nu este cazul în informatică. Un kilobyte este de 1024 de ori mai mare decât un octet, iar numărul 1024 = 2 10. Același lucru este valabil și pentru „mega” în raport cu „kilo”, etc. Cu toate acestea, un factor de 1000 este adesea folosit pentru calcule aproximative.

Ca parte a unui curs de aprofundare, profesorul poate prezenta abordarea alfabetică într-o versiune mai adecvată, fără a presupune equiprobabilitatea simbolurilor. Materialul teoretic și practic pe această temă poate fi găsit în manualul din subsecțiunea 1.4.

Exemple de rezolvare a problemelor

Sarcini pe tema „Măsurarea informațiilor. Abordarea conținutului” sunt asociate cu utilizarea ecuației 2 i = N. Există două opțiuni posibile pentru condiția problemei: 1) dat N, gasesc eu; 2) dat i, găsiți N.

În cazurile în care N este egal cu o putere întreagă de doi, este indicat ca elevii să efectueze calcule „în cap”. După cum am menționat mai sus, este util să ne amintim o serie de puteri întregi ale numărului 2, cel puțin până la 2 10. În caz contrar, ar trebui să utilizați tabelul cu soluții de ecuație 2 i = N, dat în și , care ia în considerare valorile N de la 1 la 64.

Pentru nivelul de studiu de bază al cursului de bază sunt oferite sarcini legate de raportarea evenimentelor la fel de probabile. Elevii trebuie să înțeleagă acest lucru și să fie siguri că îl justifică calitativ, folosind termenul „evenimente la fel de probabile”.

Exemplul 1. Câte informații poartă mesajul că o regină de pică a fost extrasă dintr-un pachet de 32 de cărți?

Soluţie. Când cărțile sunt extrase aleatoriu dintr-un pachet amestecat, nicio carte nu are niciun avantaj față de celelalte. În consecință, selecția aleatorie a oricărei cărți, inclusiv a reginei de pică, este un eveniment la fel de probabil. Rezultă că incertitudinea cunoștințelor despre rezultatul scoaterii unei cărți este egală cu 32 - numărul de cărți din pachet. Dacă i este cantitatea de informații din mesaj despre rezultatul extragerii unei cărți (regina de pică), atunci avem ecuația:

Deoarece 32 = 2 5, atunci, prin urmare, i = 5 biți.

Profesorul poate oferi mai multe sarcini pe tema acestei sarcini. De exemplu: câte informații sunt transmise de mesajul că un cartonaș roșu a fost luat dintr-un pachet de cărți? (1 bit, deoarece există același număr de cărți roșii și negre).

Câte informații transmite mesajul că o carte cu diamante a fost luată dintr-un pachet de cărți? (2 biți, deoarece există 4 costume în pachet și numărul de cărți din ele este egal).

Exemplu 2. Există două loterie: „4 din 32” și „5 din 64”. Mesajul despre rezultatele cărei loterie conține mai multe informații?

Soluţie. Această sarcină are o „capcană” pe care profesorul o poate întâlni. Prima soluție este banală: tragerea oricărui număr dintr-o tobă de loterie este un eveniment la fel de probabil. Prin urmare, la prima loterie cantitatea de informații din mesaj despre un număr este de 5 biți (2 5 = 32), iar la a doua - 6 biți (2 b = 64). Mesajul despre patru numere din prima loterie poartă 5´4 = 20 de biți. Mesajul despre cinci numere de la a doua loterie poartă 6´5 = 30 de biți. În consecință, mesajul despre rezultatele celei de-a doua loterie poartă mai multe informații decât rezultatele primei.

Dar este posibil și un alt mod de raționament. Imaginează-ți că te uiți la o tragere la loterie. Prima bilă este selectată dintre cele 32 de bile din tobă. Rezultatul conține 5 biți de informații. Dar a 2-a bilă va fi selectată din 31 de numere, a 3-a dintre 30 de numere, a 4-a din 29. Aceasta înseamnă că cantitatea de informații transportată de al 2-lea număr se găsește din ecuația: 2 i = 31. Folosind tabelul care rezolvă acest lucru ecuație, găsim: i = 4,95420 biți. Pentru al 3-lea număr: 2 i = 30; i = 4,90689 biți. Pentru al 4-lea număr: 2 i " = 29; i = 4,85798 biți. În total obținem: 5 + 4,95420 + 4,90689 + 4,85798 = = 19,71907 biți. La fel și pentru a doua loterie. Desigur, astfel de calcule nu vor fi reflectate în concluzie finală A fost posibil, fără a calcula nimic, să răspundem imediat că al doilea mesaj poartă mai multe informații decât primul.

Secvența evenimentelor în acest caz nu este independentă una de alta(cu excepția primei). Acest lucru, după cum am văzut, se reflectă în diferența de conținut informațional al mesajelor despre fiecare dintre ele. Prima soluție (trivială) a problemei a fost obținută sub ipoteza independenței evenimentelor și este în acest caz inexactă.

În contextul sarcinilor pe tema „Măsurarea informațiilor. Abordare alfabetică” sunt interconectate următoarele mărimi: puterea alfabetului simbolic - N; greutatea informatiei a simbolului - /; numărul de caractere din text (volumul textului) - LA; cantitatea de informație conținută în text (volumul de informații al textului) - I. În plus, la rezolvarea problemelor, este necesară cunoașterea relației dintre diverse unități de informație: bit, byte, kilobyte, megabyte, gigabyte.

Problemele corespunzătoare nivelului conținutului minim al cursului de bază au în vedere doar aproximarea unui alfabet la fel de probabil, adică ipoteza că apariția oricărui caracter în orice poziție a textului este la fel de probabilă. Problemele de nivel avansat folosesc o ipoteză mai realistă cu privire la probabilitatea inegală a simbolurilor. În acest caz, apare un alt parametru - probabilitatea simbolului (R).

Exemplul 3. Cele două texte conțin același număr de caractere. Primul text este compus într-un alfabet cu o capacitate de 32 de caractere, al doilea - cu o capacitate de 64 de caractere. De câte ori diferă cantitatea de informații din aceste texte?

Soluţie. Într-o aproximare echiprobabilă, volumul de informații al unui text este egal cu produsul dintre numărul de caractere și greutatea informațiilor unui caracter:

Deoarece ambele texte au același număr de caractere (LA), atunci diferența de volume de informații este determinată doar de diferența de conținut informațional al caracterelor alfabetului (i). Să găsim i 1 pentru primul alfabet și i 2 pentru al doilea alfabet:

2 i1 = 32, deci i 1 = 5 biți;

2 i2 = 64, deci i 2 = 6 biți.

În consecință, volumele de informații ale primului și celui de-al doilea text vor fi egale:

eu 1 = K× 5 biți, 1 2 =K×6 pic.

Rezultă că cantitatea de informații din al doilea text este de 6/5 sau de 1,2 ori mai mare decât în ​​primul.

Exemplul 4. Dimensiunea mesajului, care conține 2048 de caractere, a fost de 1/512 dintr-un MB. Care este dimensiunea alfabetului în care este scris mesajul?

Soluţie. Să convertim volumul de informații al mesajului din megaocteți în biți. Pentru a face acest lucru, înmulțiți această valoare de două ori cu 1024 (obținem octeți) și o dată cu 8:

I = 1/512 1024 1024 8 = 16384 biți.

Din moment ce 1024 de caractere poartă un asemenea volum de informații (LA), atunci pentru un personaj există:

eu = I/K = 16384/1024 = 16 biți.

Rezultă că dimensiunea (puterea) alfabetului folosit este de 2 16 = 65.536 de caractere.

Rețineți că tocmai acest alfabet va deveni, după ceva timp, standardul internațional pentru reprezentarea informațiilor simbolice într-un computer (codare Unicode).