człowiek
Autor: Terry Sejnowski i Tobi Delbruck | dodano: 2012-10-19
Język mózgu

Mózg nadaje sens naszym doznaniom, ściśle koncentrując się na koordynacji przepływu impulsów przez miliardy komórek nerwowych. Nasze mózgi są doskonalsze niż Google lub najlepszy robot z firmy IRobot.

W każdej chwili możemy skorzystać z ogromnego bogactwa przeżyć i emocji. Potrafimy momentalnie rozpoznać twarz rodzica, współmałżonka, przyjaciela lub pysk swojego psa lub kota, niezależnie od tego, czy w dzień, czy o zmierzchu, z dołu, z boku czy z góry – z takim zadaniem miałby kłopot nawet najbardziej zaawansowany komputerowy system wizyjny. Potrafimy także bez wysiłku wykonywać wiele czynności jednocześnie – kiedy na przykład wyciągamy z kieszeni chusteczkę, aby obetrzeć z potu czoło, nie musimy przerywać rozmowy. Skonstruowanie sztucznego mózgu, który umożliwiłby robotowi tak prostą kombinację zachowań, wciąż leży poza zasięgiem techniki.

Dlaczego ludzki mózg może temu wszystkiemu podołać, mimo że złożoność sieci w naszej czaszce – bilionów połączeń między miliardami komórek mózgowych – dorównuje złożoności Internetu? Jednym z powodów jest wydajność energetyczna: kiedy dwie komórki nerwowe się ze sobą komunikują, mózg zużywa tylko milionową część energii, jaką musi wydatkować komputer na wykonanie równoważnej operacji. Duży wpływ na osiągnięcie przez ten półtorakilogramowy narząd najwyższej wydajności energetycznej miała zapewne ewolucja.

Mózg podlega jednak wielu ograniczeniom, więc oszczędne gospodarowanie energią nie wyjaśnia w pełni jego fenomenu. Na przykład, na sygnał z innego neuronu neuron w korze mózgowej reaguje „odpaleniem” impulsu – potencjałem czynnościowym (który będziemy w dalszej części artykułu nazywać również potencjałem iglicowym lub krótko – iglicą) w ciągu tysięcznych części sekundy – to żółwie tempo w porównaniu z milion razy szybciej reagującymi tranzystorami komputerów. Niewielka jest także niezawodność sieci neuronalnej: sygnał wędrujący od jednej komórki kory mózgowej do drugiej ma zwykle zaledwie 20% szans na dotarcie do celu, a gdy celem tym jest odległy neuron, z którym nie ma bezpośredniego połączenia, prawdopodobieństwo to jest znacznie mniejsze.

Neurobiolodzy nie w pełni rozumieją, jak mózg wyodrębnia istotne informacje z natłoku sygnałów, które są w nim przekazywane. Nam i kilku innym badaczom udało się jednak dokonać w tej kwestii znacznych postępów. Skoncentrowaliśmy się na tym, jak mózg wykorzystuje timing (synchronizację w czasie) iglic do kodowania informacji i szybkiego rozwiązywania złożonych problemów obliczeniowych. Okazuje się, że grupa iglic generowanych niemal w tym samym momencie przenosi znacznie więcej informacji, niż te same iglice pojawiające się w sposób niezsynchronizowany.

Prócz możliwości wglądu w najbardziej skomplikowaną machinę we Wszechświecie dalszy rozwój badań w tej dziedzinie mógłby doprowadzić do powstania nowych rodzajów komputerów. Naukowcy konstruują już „neuromorficzne” obwody elektroniczne, które w pewnym stopniu naśladują sieć powiązań neuronalnych. Już dziś projektujemy urządzenia z milionami elektronicznych neuronów, a w planach są znacznie większe systemy. Docelowo powinno być możliwe skonstruowanie neuromorficznych komputerów potrzebujących zaledwie ułamka mocy wykorzystywanej przez współczesne maszyny, a działających od nich znacznie szybciej [patrz: Kwaben Boahen, „Mikroprocesory neuromorficzne”, Świat Nauki, czerwiec, 2005].

Komórkowa paplanina
jak wielu innych neurobiologów, my także często jako poligon doświadczalny wykorzystujemy układ wzrokowy, m.in. dlatego że jego podstawowy schemat połączeń jest dobrze znany. Od dawna podejrzewa się, że timing sygnałów w tym układzie i w ogóle w mózgu stanowi kluczowy element kodu wykorzystywanego przez mózg przy podejmowaniu decyzji o tym, które informacje przechodzące przez sieć są znaczące. Mimo to od wielu dekad nie zajmowano się tym zagadnieniem, ponieważ timing istotny jest tylko przy porównywaniu różnych struktur mózgu, a ponadto trudno było mierzyć jednocześnie aktywność więcej niż jednego neuronu. Ostatnio jednak rozwój komputerowych modeli układu nerwowego oraz postęp w eksperymentalnych i teoretycznych obszarach neuronauk rozbudziły zainteresowanie zagadnieniem timingu jako kluczem do lepszego zrozumienia, jak neurony ze sobą rozmawiają.

Więcej w miesięczniku „Świat Nauki" nr 11/2012 »
Drukuj »
Ten artykuł nie został jeszcze skomentowany.
Aktualne numery
12/2017
10/2017 - specjalny
Kalendarium
Listopad
24
W 1859 r. Karol Darwin opublikował dzieło O powstaniu gatunków na drodze doboru naturalnego.
Warto przeczytać
Chwila bez biologii… nie istnieje. W nas i wokół nas kipi życie. Dlaczego by wobec tego nie poznać go bliżej, najlepiej we własnym laboratorium? By nie sięgać daleko, można zacząć od siebie.

Logowanie

Nazwa użytkownika

Hasło

Autor: Terry Sejnowski i Tobi Delbruck | dodano: 2012-10-19
Język mózgu

Mózg nadaje sens naszym doznaniom, ściśle koncentrując się na koordynacji przepływu impulsów przez miliardy komórek nerwowych. Nasze mózgi są doskonalsze niż Google lub najlepszy robot z firmy IRobot.

W każdej chwili możemy skorzystać z ogromnego bogactwa przeżyć i emocji. Potrafimy momentalnie rozpoznać twarz rodzica, współmałżonka, przyjaciela lub pysk swojego psa lub kota, niezależnie od tego, czy w dzień, czy o zmierzchu, z dołu, z boku czy z góry – z takim zadaniem miałby kłopot nawet najbardziej zaawansowany komputerowy system wizyjny. Potrafimy także bez wysiłku wykonywać wiele czynności jednocześnie – kiedy na przykład wyciągamy z kieszeni chusteczkę, aby obetrzeć z potu czoło, nie musimy przerywać rozmowy. Skonstruowanie sztucznego mózgu, który umożliwiłby robotowi tak prostą kombinację zachowań, wciąż leży poza zasięgiem techniki.

Dlaczego ludzki mózg może temu wszystkiemu podołać, mimo że złożoność sieci w naszej czaszce – bilionów połączeń między miliardami komórek mózgowych – dorównuje złożoności Internetu? Jednym z powodów jest wydajność energetyczna: kiedy dwie komórki nerwowe się ze sobą komunikują, mózg zużywa tylko milionową część energii, jaką musi wydatkować komputer na wykonanie równoważnej operacji. Duży wpływ na osiągnięcie przez ten półtorakilogramowy narząd najwyższej wydajności energetycznej miała zapewne ewolucja.

Mózg podlega jednak wielu ograniczeniom, więc oszczędne gospodarowanie energią nie wyjaśnia w pełni jego fenomenu. Na przykład, na sygnał z innego neuronu neuron w korze mózgowej reaguje „odpaleniem” impulsu – potencjałem czynnościowym (który będziemy w dalszej części artykułu nazywać również potencjałem iglicowym lub krótko – iglicą) w ciągu tysięcznych części sekundy – to żółwie tempo w porównaniu z milion razy szybciej reagującymi tranzystorami komputerów. Niewielka jest także niezawodność sieci neuronalnej: sygnał wędrujący od jednej komórki kory mózgowej do drugiej ma zwykle zaledwie 20% szans na dotarcie do celu, a gdy celem tym jest odległy neuron, z którym nie ma bezpośredniego połączenia, prawdopodobieństwo to jest znacznie mniejsze.

Neurobiolodzy nie w pełni rozumieją, jak mózg wyodrębnia istotne informacje z natłoku sygnałów, które są w nim przekazywane. Nam i kilku innym badaczom udało się jednak dokonać w tej kwestii znacznych postępów. Skoncentrowaliśmy się na tym, jak mózg wykorzystuje timing (synchronizację w czasie) iglic do kodowania informacji i szybkiego rozwiązywania złożonych problemów obliczeniowych. Okazuje się, że grupa iglic generowanych niemal w tym samym momencie przenosi znacznie więcej informacji, niż te same iglice pojawiające się w sposób niezsynchronizowany.

Prócz możliwości wglądu w najbardziej skomplikowaną machinę we Wszechświecie dalszy rozwój badań w tej dziedzinie mógłby doprowadzić do powstania nowych rodzajów komputerów. Naukowcy konstruują już „neuromorficzne” obwody elektroniczne, które w pewnym stopniu naśladują sieć powiązań neuronalnych. Już dziś projektujemy urządzenia z milionami elektronicznych neuronów, a w planach są znacznie większe systemy. Docelowo powinno być możliwe skonstruowanie neuromorficznych komputerów potrzebujących zaledwie ułamka mocy wykorzystywanej przez współczesne maszyny, a działających od nich znacznie szybciej [patrz: Kwaben Boahen, „Mikroprocesory neuromorficzne”, Świat Nauki, czerwiec, 2005].

Komórkowa paplanina
jak wielu innych neurobiologów, my także często jako poligon doświadczalny wykorzystujemy układ wzrokowy, m.in. dlatego że jego podstawowy schemat połączeń jest dobrze znany. Od dawna podejrzewa się, że timing sygnałów w tym układzie i w ogóle w mózgu stanowi kluczowy element kodu wykorzystywanego przez mózg przy podejmowaniu decyzji o tym, które informacje przechodzące przez sieć są znaczące. Mimo to od wielu dekad nie zajmowano się tym zagadnieniem, ponieważ timing istotny jest tylko przy porównywaniu różnych struktur mózgu, a ponadto trudno było mierzyć jednocześnie aktywność więcej niż jednego neuronu. Ostatnio jednak rozwój komputerowych modeli układu nerwowego oraz postęp w eksperymentalnych i teoretycznych obszarach neuronauk rozbudziły zainteresowanie zagadnieniem timingu jako kluczem do lepszego zrozumienia, jak neurony ze sobą rozmawiają.