Entropiya

Entropiya sözü adətən nizam sözü ilə birlikdə işlədilir və nizamın dağılması entropiyanın artması ilə əlaqələndirilir. Lakin, nizam dedikdə nə nəzərdə tutulur? Əlbəttə, gündəlik dilimizdə nizam sözünün nə mənaya gəldiyini bilirik, amma bu sözə obyektiv elmi tərif vermək üçün ilk öncə entropiyanın riyazi izahatını nəzərdən keçirtməliyik. Bu riyazi izahat nizam anlayışını informasiya anlayışı ilə əlaqəndirəcək və ətrafda baş verən proseslərə baxış bucağımızı xeyli dəyişdirəcəkdir. Entropiya anlayışına keçid etməzdən əvvəl isə ehtimal nəzəriyyəsi haqqında bəzi fundamental ideyaları izah etmək önəmlidir.

Məşhur zər nümunəsi ilə ehtimal nəzəriyyəsini belə izah edə bilərik. Deyək ki, zəri atmazdan əvvəl baş verəcək mümkün hadisələrin ehtimallarını bilmək istəyirik. Bu kontekstdə, hadisə dedikdə zərin hansı üzünün düşəcəyinə işarə edirik. Mümkün hadisələr toplusunu S hərfi ilə və ayrı-ayrı hadisələri A, B, C … hərfləri ilə göstərsək, S çoxluğunda olan A hadisəsinin ehtimalını p(A) işarə edə bilərik. Gələk əsas məsələyə – ehtimal nərəziyyəsinin fundamental qanunlarından biri odur ki, ehtimal sıfır ilə bir arasında olan bir ədəd olmalıdır və mümkün bütün hadisələrin ehtimalları cəmi ( S çoxluğundakı hadisələr) birə bərabər olmalıdır, yəni p(A)+p(B)+p(C)… = 1 . Zər nümunəsində əgər fərz etsək ki, zərin hər üzünün düşmə ehtimalı digər üzlər ilə eynidir (reallıqda, belə zəri düzəltmək üçün zərgər dəqiqliyi lazımdır, bəlkə də buna görə peşənin adını zərgər qoyublar, zəri yaxşı düzəldən yəni. zarafat), onda hər hansı bir üzün düşmə ehtimalı 1/6-ə bərabər olmalıdır. Çünki zərin mümkün 6 üzü var və 1/6 x 6 = 1. Statistikada ehtimallar paylaşımını qrafiklə göstərirlər. Bu qrafikdə x oxunda mümkün hadisələr, y oxunda isə hadisələrin ehtimalları olur. Qrafik təsvir üçün bəzən hadisələri verilən qayda ilə real ədədlərə çevirmək lazım olur, məsələn, zər nümunəsində bunu etmək çox rahatdır. Çünki, hadisəni düşən üzdəki rəqəm ilə göstərə bilərik. Başqa bir nümunə – məsələn, sabah yağışın yağıb və ya yağmayacağının statistik modelini hazırlamaq lazım olsaydı, onda yağışın yağmasını 1, əksini isə 0 rəqəmi ilə göstərərdik.

Fransız alim Claude Shannon 1948-ci ildə nəşr olunan inqilabi elmi işində ilk dəfə olaraq entropiya anlayışının informasiya nəzəriyyəsindəki riyazi izahatını verdi (1). Bu anlayışı nümunə üzərindən izah etməyə çalışacağam. Təsəvvür edək ki, yuxarıdakı zər misalına bənzəyən hər hansı bir hadisənin ehtimallar paylaşımı bizə verilib. Yəni, biz hansı hadisənin hansı ehtimalla baş verə biləcəyini çox yaxşı təxmin edə bilirik. Əlbəttə, hadisə baş verənə qədər onun mümkün variantlardan hansının olacağını bilmirik: əlimizdə olan sadəcə ehtimallardır. İndi bu əqli eksperimenti iki mərhələyə bölək – birinci mərhələ hadisə baş verməzdən öncə, ikinci mərhələ isə hadisə baş verdikdən sonra olsun. İndi keçək sürprizə. Qəribə səslənsə də, ‘sürpriz’ informasiya nəzəriyyəsində bir termindir və onun çox sadə riyazi formulu var. Bu riyazi formulu izah etdikdən sonra hamınızda kiçik də olsa bir təbəssüm oyanacaq, çünki bu izahatdan sonra Shannon’un bu nəticələrə hansı mərhələlərdən keçərək gəldiyini hiss edəcəyik. Birinci başlayaq gündəlik həyatda işlətdiyimiz sürpriz sözündən. Sürpriz, əgər razısınızsa, ehtimalı aşağı olan hadisənin baş verməsidir. Başqa sözlə desək, daha az gözlədiyimiz bir hadisənin qeydə alınmasıdır. Məsələn, tutaq ki, iki hadisə, A və B-nin baş vermə ehtimalları müvafiq olaraq belədir: p(A)=0.0001, p(B)=0.6 (qeyd: burada ehtimalların cəmi 1 deyil, çünki çoxluqda başqa hadisələr də var; mən sadəcə nümunə üçün iki hadisədən danışıram). Hansı hadisə baş verərsə daha çox sürpriz yaşanar? Ehtimallara baxsaq A hadisəsinin baş verməsi daha çox sürprizə səbəb olacaq, çünki olma ehtimalı çox kiçikdir. Deməli, sürpriz ehtimalla tərs mütənasib olmalıdır. Keçək ikinci nüansa. Tutaq ki, A hadisəsinin ehtimalı 1-dir. Əgər p(A)=1 olduğu doğrudursa, biz nəticəni artıq bilirik – yəni A hadisəsi mütləq baş verəcək. Onda, intuisiyamız bizə deyir ki, sürpriz tənliyi elə olmalıdır ki, ehtimalı birə bərabər olan hadisənin sürprizi sıfır olsun. Üçüncü nüans – deyək ki, A hadisəsinin olma ehtimalı sıfırdır. Bəs bu halda mümkün sürprizi necə kəmiyyətləşdirək? Intuitsiyamız yenidən deyir ki, ehtimalı sıfır olan hadisə heç vaxt baş verməyəcəyinə görə mümkün sürpriz haqqında danışmaq çətindir. Yəni, bu tənlik elə bir tənlik olmalıdır ki, orada ehtimal sıfır olduqda formula təyin edilməsin. Nəhayət, son nüans – sürpriz mənfi ədəd ola bilməz. Shannon bu tələbatları ödəyən funksiyanı öz məqaləsində belə təyin etmişdir:

S(i) = log 1/(p(i)) = –log p(i)        

Burada, i hadisəsinin oyada biləcəyi mümkün sürpriz S(i) -yə bərabərdir. Bəs informasiya anlayışı sürprizlə necə əlaqəlidir? Əgər, A hadisəsinin sürprizi S(A) -dırsa, A hadisəsi baş verdikdə müşahidəçinin əldə etdiyi informasiya elə S(A)ya bərabərdir. Başqa sözlə, böyük sürpriz dəyəri olan hadisənin baş verməsi böyük miqdarda informasiya deməkdir. Ona gorə də, sürpriz və informasiya sözlərini bu kontekstdə sinonim kimi işlədə bilərik. Nəhayət gəldik entropiya anlayışına: entropiya, verilmiş problemdə, mümkün bütün hadisələrin ortalama sürprizidir. Məsələn, deyək ki, mümkün baş verəcək hadisələr A, B, C, D və hər birinin sürpriz dəyərləri uyğun olaraq, S(A), S(B), S(C), S(D)- dir. Eksperiment və ya müşahidədən öncə bu hadisələrdən hansının baş verəcəyindən əmin deyilik. Lakin, gözləninən orta sürprizi hesablaya bilərik, həmin bu gözlənilən ortalama sürpriz (ing. expected surprise) məhz entropiyaya bərabərdir. ‘Gözlənilən ortalama sürpriz’ termini çaşqınlığa səbəb olmasın deyə statistika elminə yenidən kiçik bir ekskursiya edək.

Statistikadan bəzi incilər

gaus-ehtimallar-paylaşımı.png
Şəkil 1: Gauss ehtimallar paylaşımı.

Nümunə üçün, statistikada müxtəlif fenomenləri modelləşdirməkdən ötrü istifadə olunan, Gauss’un ehtimallar paylaşımı qrafikinə istinad edək. Bu qrafikdə x oxu mümkün hadisələri, y oxu isə o hadisələrin olma ehtimallarını göstərir. Göründüyü kimi ehtimallar yuxarıdakı zər nümunəsi kimi bərabər paylanmayıb; bəzi hadisələrin baş vermə ehtimalı daha çoxdur. Bu qrafikin mərkəzi µ nöqtəsinə uyğun gəlir. Məhz bu nöqtə qrafikdəki ehtimallar paylaşımının gözlənilən və ya ortalama dəyəridir. Başqa sözlə, µ hadisəsi gözlənilən (orta) hadisədir.

İntuitiv olaraq qrafikin ehtimallar dəyərinin bu nöqtə ətrafında daha böyük olmağı, müşahidə nəticəsində hadisənin µ nöqtəsi ətrafında olacağı gözləntisini yaradır. Bu hər zaman doğru deyil, çünki müşahidə nadir hadisə ilə də nəticələnə bilər. Amma statistikanın ana prinsipinə görə, əgər biz eyni eksperimenti dəfələrlə təkrarlayıb nəticələri qeyd etsək, sonda görərik ki, nəticələrin çoxu bu gözlənti ətrafında çıxır və bəzi hallarda— yüz və ya əlli min təkrarlamada bir— nadir hadisə də baş verir. Gözlənilən və ya ortalama hadisəni aşağıdaki formulla hesablamaq olar:

ehtimal-tenlik

Burada i hadisə, p(i) isə hadisənin olma ehtimalıdır. Yuxarıda qeyd etdiyimiz kimi, işləri rahatlaşdırmaq üçün, öncədən hadisələri müəyyən qanun ilə ədədlərə çeviririk. Formulda da göründüyü kimi, ehtimalı böyük hadisələr üçün i × p(i) ifadəsinin dəyəri daha böyükdür və onun yekun nəticəyə qatqısı daha çoxdur. Sonda alınan nəticə, yəni E, bizə ortalama hadisəni və ya gözlənilən hadisəni verir.

Yenidən entropiya

Yuxarıda qeyd etdiyimiz kimi entropiya (H) ortalama və ya gözlənilən sürprizdir. Bunu hesablamaq üçün aşağıdaki formuldan istifadə edəcəyik.

H = ∑ S(i) × p(i)                 (iii)

Bu formulun yuxarıdakı ortalama hadisə formulu ilə paralellik təşkil etməsi yəqin ki, diqqətinizi çəkdi. Əslində, bu ikisi eyni əməliyyatı edir. Sadəcə olaraq, eyni fenomendə ‘hadisələri’ hansı qanun ilə ədədə çevirməyimizdə fərq var. Məsələn zər nümunəsində biz hadisələri zərin göstərdiyi rəqəmlərlə işarə edirdik. Yəni, i = 1, 2, 3, 4, 5, 6 arasında dəyişirdi. İndi hesab edək ki, biz hadisəni zərin göstərdiyi rəqəmin kubu ilə göstəririk. O zaman, i = 1, 8, 27, 64, 125, 216 arasında dəyişir. Sonda, fenomen dəyişməsə belə bizim hadisəyə baxış bucağımız dəyişdi. Bəs yeni interpretasiya ilə ortalama nəticəni necə hesablamaq olar? Bunun üçün ii nömrəli formulda i olaraq göstərilən ədədləri artıq zərin düşən üzündəki rəqəmlə yox, onun kubu ilə əvəz etmək kifayətdir. Yəni, əvvəl ortalama dəyər və ya gözlənilən zər üzü 3 idisə, indi artıq 27 olacaq. İndi qayıdaq sürpriz və informasiya məsələsinə. Hadisənin sürpriz formulu S(i) və i3 təbiətcə yaxın əməliyyatlardır— hər ikisi baş verən hadisənin real ədəd oxuna transformasiyasıdır. O zaman ortalama sürprizi hesablamaq üçün (iii) nömrəli formul kifayətdir. Nəticə odur ki, entropiya gözlənilən sürpriz və ya gözlənilən/ortalama informasiyadır.

Nizam və entropiya

İlk paraqrafda qeyd etdiyim kimi, entropiya anlayışı adətən nizam-intizam ilə əlaqələndirilir. Bu təsadüfi deyil, çünki Shannon’dan öncə entropiya anlayışına ilk dəfə termodinamikada istinad edilmişdir1. Termodinamikanın ikinci qanununda deyildiyi kimi, qapalı sistemlərdə (xaric ilə heç bir enerji mübadiləsi olmayan) entropiya artmağa doğru gedir və sistem termodinamik tarazlığa doğru irəliləyir. Entropiyanın artmağını nizam ilə əlaqələndirmək olar— məsələn, zaman keçdikcə qapalı sistemlərdə molekulların zaman-məkan konfiqurasiyaları daha nizamsız olmağa meyillidir. Lakin, yaddan çıxarmaq olmaz ki, bu sadəcə statistik bir nəticədir. Yəni, balonun bir küncünə yığılmış qaz molekulları vaxt keçdikcə balonun bütün həcmini doldurmağa çalışacaqlar və ya daha dəqiq desək, müşahidəmizin nəticəsinin belə olma ehtimalı çox böyük olacaq. Amma elə bir müşahidə ola bilər ki, onun nəticəsində biz balonda molekulların yenidən bir küncə toplaşdığını görək. Bu hadisənin ehtimalı əlbəttə nəzərə alınmayacaq qədər kiçik, amma sıfır deyildir. Kifayət qədər uzun zaman kəsiyində (bəlkə də milyon illər,kim bilir) müşahidələrdən bəziləri belə nadir nəticələr verə bilər.

Bir də bu məsələyə informasiya nəzəriyyəsi bucağından baxaq: vaxt keçdikcə qapalı sistemin entropiyası artır və bu o deməkdir ki, sistemin informasiya içəriyi də böyüyür. Fizika və informasiya nəzəriyyəsində buna sistem haqqındakı qeyri-müəyyənlik (ing. uncertainty) də deyilir. Entropiya böyükdürsə, sistemin mümkün informasiya içəriyi böyükdür, bu da öz növbəsində o deməkdir ki, sistem haqqında bilmədiyimiz çoxdur, qeyri-müəyyənlik yüksəkdir. Eyni anlayışı 3-4 bucaqdan göstərməyimin səbəbi odur ki, elmi ədəbiyyatda da müəlliflər eyni şeyi bəzən müxtəlif açıqlamalarla izah edirlər. Qapalı sözünü dönə-dönə vurğulamağımın da səbəbi var: yuxarıdakı termodinamika qanununda ətrafla enerji mübadiləsi qəti qadağandır. Əgər bu şərt olmasa, onda iddia etmək olardı ki, canlı orqanizmlər bu qanunu həmişə pozurlar, çünki onlar vaxt keçdikcə özlərində entropiyanı azalda/nizam yarada bilirlər. Hüceyrə bölünməsi, embrionun inkişafı və.s bu proseslərə nümunədir. Canlı orqanizmlər bunu etmək üçün ətraf mühitlə daimi enerji mübadiləsində olurlar, enerjini alır və onu daxildə qayda-qanun yaratmağa xərcləyirlər. İndi əgər mən yuxarıda qayda-qanunu entropiya, entropiyanı da informasiya ilə əlaqələndirdirmsə bu o deməkdirmi ki, informasiya və enerji bir-birilərinə çevrilə bilərlər? Növbəti paraqrafda bu sualla maraqlananlar üçün bəzi qısa məlumatlar verəcəm.

Informasiya ve Enerji, Maxwellin şeytanları

maxwell-seytan.png
Şəkil 2: Maxwellin şeytanı iş başında (müəllif: John D. Norton)

Bir əqli eksperimentində Maxwell termodinamikanın ikinci qanununun pozula biləcəyini təklif edir. Qaz konteynerinin ortasında kiçik qapısı olan bir arakəsmə fikirləşin və müşahidə qabiliyyəti insanınkından xeyli güclü agentin— Maxwell onu şeytan adlandırırdı— qaz balonunda hərəkət edən individual molekulları izləyə bildiyini düşünün (Şəkil 2). Deyək ki, başlanğıcda A, B hissələrinin temperaturları bərabərdir. Qazın temperaturu onun enerjisi ilə, o da öz novbəsində qazda ora-bura hərəkət edən zərrəciklərin ortalama sürəti ilə düz mütənasibdir. Lakin əgər biz müəyyən anda qazda hərəkət edən bir neçə molekulun sürətini ölçsək, bu sürətlərin bir-birilərindən fərqli olduğunu görərik. Yəni, eyni temperaturda, eyni konteynerdə hərəkət edən zərrəciklərin ortalama sürətləri stabil olsa belə, onların fərdi sürətləri ayrı-ayrılıqda fərqlidir. Şeytan isə bizdən fərqli olaraq, bu molekulların hər birini izləyə və onların sürətlərini ölçə bilir. O, arakəsməyə yaxınlaşan molekulların sürətlərini ölçür və nəticəyə uyğun olaraq qapını açıb bağlayır və yekunda sürətli molekullar sağ, yavaş molekullar isə sol tərəfdə toplanır. Bu isə sağ tərəfdə orta sürətin, yəni temperaturun, sol tərəfdəkindən çox olmasına gətirib çıxarır. Göründüyü kimi başlanğıcda bir-birinə nəzərən tarazlıqda olan iki arakəsmə artıq tarazlıqda deyil və onları ehtiva edən sistem də artıq tarazlıqdan kənardadır. Başqa sözlə, şeytan sistemdə nizam-intizam yaradaraq, konteynerin entropiyasını azaldır. Əgər şeytanın qapını açıb bağlamaq üçün minimal, sıfıra yaxın iş gördüyünü zənn etsək, o halda termodinamikanın ikinci qanunu pozulmuş olur. Çünki şeytan iş görmədən konteynerin entropiyasını azaltmağa nail olub.

Sual yarana bilər ki, bəs bu kiçik qapını açıb bağlamaq üçün iş görmək və ya enerji sərf etmək lazımdır axı, o haradan əldə edilir? Tamamilə haqlı sualdır. Əgər qapının açılıb-bağlanmağını kvazistatik2 proses şəklində həyata keçirsək, nəzəri olaraq bu qapını əhəmiyyətsiz dərəcədə kiçik iş görərək açıb bağlamaq olar. Elm adamları əqli eksperimentin bu şərti ilə razılaşırdılar; yəni, ortada fizika qanunlarına zidd bir şeyin olduğunu fikirləşmirdilər. Lakin, məşhur ikinci qanun göz görə-görə pozulurdu. Bu paradoks uzun müddət elm adamlarını məşğul etdi və onlardan bəziləri öz cavablarını və tənqidlərini bildirdilər. Paradoks diqqəti informasiya və enerjinin əlaqəsinə yönəltdi. Çünki, şeytan yuxarıda deyilənləri etmək üçün ölçmə əməliyyatları aparmalıdır ki, bu da arakəsməyə yaxınlaşan hər bir molekulun ayrılıqda dəqiq şəkildə sürətini ölçməkdən ibarətdir. Maxwell’in şeytanı böyük miqdarda informasiya mənimsəməli idi.

1929-cu ildə bu paradoksa ən vacib cavablardan biri L.Szilard və L. Brilloin’dan gəldi (2). Onların iddialarının xülasəsi belədir: Şeytan bu prosesdə yuxarıda dediyimiz kimi informasiya əldə etməlidir və informasiyanın əldə edilməsi enerji istifadəsi deməkdir. Şeytan isə bu enerjini ətrafdan, yəni konteyner xaricindəki mühitdən alır və alınan enerjini konteyner daxilindəki entropiyanı azaltmaq üçün xərcləyir. Başqa sözlə, şeytan ətrafdan aldığı enerjini informasiya əldə edilməsinə xərcləyir (informasiya əldə edildikdə şeytanın ‘beynində’ entropiya artır) və ikinci mərhələdə bu informasiya konteyner daxilindəki entropiyanı azaltmağa və ya konteynerin enerjisini artırmağa sərf olunur. Qısacası, şeytan informasiyasını enerjiyə çevirir, amma o informasiyanı əldə etmək üçün özü ətrafdan enerji alır və xərcləyir. Prosesin qrafik təsvirini belə göstərmək olar (Şəkil 3).

entropiya-enerji-deyismeleri.png
Şəkil 3. Entropiya və enerji dəyişmələri. Şeytan ətrafdan alınan enerjini öz entropiyasının artımına (informasiya (İ) əldə edilməsinə) xərcləyir. Bu informasiyanı nəzəri sıfır iş görərək konteynerin entropiyasını azaltmağa (konteynerin enerjisini artırmağa) istifadə edir.

Bu halda termodinamikanın ikinci qanunu pozulmamış olur, çünki, ilk öncə şeytan qanunun “qapalı” sistem şərtini dolayı yolla pozaraq ətrafdan enerji qəbul edir və o enerjini informasiya körpüsü üzərindən konteynerə ötürür. Bundan başqa konteyner və şeytan sisteminin ümumi entropiyası artır, çünki informasiya əldə edərkən şeytanın entropiyasının artım miqdarı konteynerin entropiyasının azalma miqdarından böyük olur.

Nəticə isə ondan ibarətdir ki, informasiya enerjiyə, enerji isə öz növbəsində informasiyaya çevrilə bilər. İnformasiyanın enerji ekvivalentliyi prinsipi üzərinə xeyli elmi işlər mövcuddur. Hətta yuxarıda adını cəkdiyimiz L.Szilard bir bit informasiyanı kb×T×ln23 enerjiyə çevirən model belə hazırlamışdır  (2). Tokyo Universiteti Fizika Departamentinin alimi Masaki Sano və həmkarları 2010-cu ildə Nature jurnalında çap edilən məqalələrində bu ekvivalentlik prinsipi ilə mikroskopik informasiya mühərrikinin hazırlanmasını göstəriblər (3).

İnformasiya və nizam

Yuxarıda qeyd etdiyim kimi informasiya və nizam sözlərini sinonim kimi işlətmək olar. Lakin, fikrimcə nizam və informasiya arasındakı əlaqə haqqında bəzi maraqlı faktları bölüşmək oxucunu şad edər. İlk öncə beynimizdə bir otaq canlandıraq; başlanğıcda bu otaqda hər şey səliqəli, öz yerindədir. Otağı təmizləməyə xüsusi enerji xərclənməsə, zaman keçdikcə o səliqəsizliyə doğru gedir. Bu zaman, informasiya nəzəriyyəsi baxımından iki vacib hadisə baş verir: Otağın entropiyası və otaqla bağlı qeyri-müəyyənlik və ya otağın informasiya içəriyi artır. Nümunədəki informasiya otaqda olan elementlərin qarşılıqlı məkan və zaman əlaqələridir. Məsələn, səliqəli otaqda bütün cisimlərin harada və necə yerləşdiyini bilmək üçün mənimsəməli olduğunuz informasiya səliqəsiz və dağınıq otaqdakından azdır. Otaq nə qədər çox səliqəsiz və dağınıq olarsa informasiya miqdarı bir o qədər çoxdur. İnsanın xaotik adlandırdığı sistemlərdə isə bu informasiya insan beyninin tutumuna nəzərən xeyli böyükdür. Xaos və xaotik sözləri müşahidəçiyə nəzərən nisbidir. Vaxtının çox hissəsini bu mövzularda fikirləşməyə xərcləyən oxucu sual verə bilər ki, yuxarıda deyilənlərə əsasən, kainatın necə işlədiyini bilmək üçün çox böyük informasiya əldə etmək lazımdır – bəs elm bu işin öhdəsindən necə gəlir? Bu sualın iki cavabı var. Cavablardan maraqsızı haqda indi, maraqlısı haqda növbəti yazıda danışacam. Maraqsız cavab odur ki, hal-hazırda insanlığın kollektiv olaraq əldə etdiyi informasiyanın həcmi həddindən artıq böyükdür. Müasir elm çox şaxələnmiş vəziyyətdədir və hər budağında çalışan xeyli sayda elm adamı var. Hal-hazırda elmin yaratdığı bilik ehtiyatının astronomik ölçüsünü hiss etmək üçün bir misal deyim. Təkcə neyroelmin araşdırdığı bəlkə də yüzlərlə mövzudan biri olan şüur haqqında PubMed axtarış sistemində axtarış etdikdə otuz altı mindən çox məqalə ilə qarşılaşmaq olar.

Bilik gücdür?!

Enerjinin informasiyaya çevrilməsi əslində daima ətrafımızda baş verən prosesdir. Canlı orqanizmlər ətrafdan enerji alaraq daxili informasiya içəriyini qoruyur, onu artıra bilirlər. Məsələn, hüceyrə daxilində baş verən minlərlə reaksiyaların tənzimlənməsində iştirak edən enzimləri Maxwell’in şeytanına bənzətmək olar. Mürəkkəb quruluşa və eyni zamanda, nizama malik olan zülalların istehsalında enzimlər başlıca rol oynayırlar. Enzimlər bu əməliyyatı hüceyrəyə daxil olan kimyəvi maddələrdən alınan enerji vasitəsilə edirlər. Qısacası, canlı orqanizmləri ayaqda saxlayan məhz enerjinin nizama, yəni informasiyaya çevrilməsidir. Məsələyə başqa bucaqdan baxsaq deyə bilərik ki, Maxwell’in şeytanları sistemi daim tarazlıq nöqtəsindən uzaqlaşdırmağa çalışırlar. Yuxarıdakı əqli experimentdə də şeytan sürətli molekulları yavaş molekullardan ayıraraq sistemin bütöv halda tarazlığa gəlməsinə mane olur. Yenidən qeyd etməliyəm ki, tarazlıq sistemin enerjisi müəyyən bir dəyərə gələrək dəyişməz, sabit qalması demək deyil. Tarazlıq statistik bir anlayışdır və tarazlıq halında sistemin orta enerjisi sabit bir ədəd olsa belə, sistem həmişə o ədəd ətrafında rəqs edir (yəni, enerji dəyəri orta dəyərdən az da olsa, aşağı və yuxarı dəyişir). Şeytan məhz bu fürsətdən istifadə edərək, topladığı informasiya sayəsində enerjinin rəqsindən yararlanır. İntuitiv olaraq belə təsəvvür etmək olar ki, enerji orta dəyərdən qalxan kimi şeytan araya girir və enerjinin yenidən aşağı düşməyinə mane olur (sürətli və yavaş molekulları ayıraraq).

İnformasiya və enerji ekvivalentliyi fizikada maraqlı bir sual ortaya çıxarmışdır: Kainatin əsas fundamental elementi hansıdır, enerji yoxsa informasiya? Məncə Xəzərin sahilinə gedib bu sual haqqında dərin fikirlərə dalmağa dəyər.

Qeydlər

  1. Termodinamika və informasiya nəzəriyyələrində istifadə olunan entropiya terminləri oxşar tənlikərlə hesablansalar belə aralarında bəzi nəzəri fərqlər mövcuddur. Bu məqalədə biz məsələyə informasiya nəzəriyyəsi bucağından baxacağıq.
  2. F = ma qanununu yada salsaq, əgər qapının açılıb bağlanmağı nəzərə alınmayacaq qədər kiçik təcil ilə və ya çox yavaş həyata keçsə o zaman bunun üçün istifadə olunan enerji minimum və ya sıfira yaxın olar.
  3. kb- Boltzman sabiti, T- temperaturu işarə edir.

Mənbələr

  1. Shannon, C. E., & Weaver, W. (1949). The mathematical theory of communication. Urbana: University of Illinois Press.
  2. Szilard, L. (1929). On the Decrease of Entropy in a Thermodynamic System by the Intervention of Intelligent Beings. Zeitschrift fur Physik 53: 840–856. English translation in The Collected Works of Leo Szilard: Scientific Papers, B.T. Feld and G. Weiss Szilard (eds.), Cambridge, Massachusetts: MIT Press, 1972, pp. 103–129.
  3. Toyabe, S., Sagawa, T., Ueda, M., Muneyuki, E., & Sano, M. (2010). Experimental demonstration of information-to-energy conversion and validation of the generalized Jarzynski equality. Nature Physics, 6 (12), 988-992.

Redaktə etdilər: Rəşad Yusifov, Ərtoğrul Alışbəyli, Sadiq Niftullayev

Posts created 5

Bir cavab yazın

Sizin e-poçt ünvanınız dərc edilməyəcəkdir. Gərəkli sahələr * ilə işarələnmişdir

Begin typing your search term above and press enter to search. Press ESC to cancel.

Back To Top