pátek 27. června 2014

Brain Machine Interface nebo smrt !

Poslední dobou každou chvíli padne nějaký milník na poli umělé inteligence. Počítače se začínají učit pracovat mimo hranice předem definovaného problému. Začínají rozumět lidské řeči, komplexitě otevřeného světa, a programovat samy sebe. Moderní umělá inteligence už dávno není omezena rigidními představami Turingova stroje a exaktně vyhodnotitelných problémů, zakomponovává přibližné odhady, heuristiky a pouze statisticky platné závěry - stejně jako to dělají lidé a jiné živé organizmy. Na obzoru není žádná principiální bariera mezi problémy a metodami jejich řešení, které by používal člověk, a které by stroje alespoň v principu nevyužívaly (přinejmenším o ní nevíme). Pokud tedy nebudeme argumentovat nějakým vitalistickým dogmatem ( jako že člověk má "duši" zatímco počítač/program ne ) nebo tím, že počítače mají o mnoho řádů menší výpočetní sílu než lidský mozek (viz. dále), pak je pouhou otázkou času a postupného vývoje v rámci již známých paradigmat, kdy nás počítače dostihnou a záhy předeženou v každé myslitelné oblasti inteligence a řešení problémů ( úmyslně to formuluju takhle, aby mě nikdo nechtěl napadnou argumentem typu, že počítač nikdy nebude "lidštější" než člověk ).

Až nás stroje doženou a předeženou


Protože jednou z těch oblastí řešení problémů a inteligence je i sám vývoj počítačového hardware, software a umělé inteligence znamená to, že v tom okamžiku bude počítačová inteligence naprosto soběstačná,  nadřazena lidské a výrazně rychleji rostoucí. Tedy že lidská inteligence se během velmi krátké doby stane naprosto patetickou a nepotřebnou.

Může to mít dvě vyústění:
  1. To méně pravděpodobné, zato oblíbenější většinou autorů sci-fi, že počítače se vymknou kontrole, převezmou moc, a vyhladí lidstvo. U těch naivnějších autorů sci-fi povedou s lidstvem válku (místo aby jej hned vyhladili) nebo lidstvo ( bůhví k čemu ) zotročí. Jakkoli je scénář války se stroji atraktivní pro lidského čtenáře, nepřipadá její realizace v podstatě v úvahu. Exponenciálně rychle rostoucí schopnosti strojů (tj. inteligence, ale z ní plynoucí i vývoj jiných schopností ) by záhy dosáhly takové převahy, že by jakákoli válka byla absurdní, a zotročení lidé pro stroje naprosto neužiteční.
  2. To pravděpodobnější - že počítače budou pořád poslušně sloužit člověku, pouze to budou dělat opravdu hodně dobře.
Ačkoli druhá možnost vypadá nevinně a na první pohled optimisticky, je to právě jedna z věcí co mě děsí vždy když si to připustím na mysl. Já se nechci probouzet každé ráno s vědomím, že jakákoli moje činnost, jakákoli moje myšlenka je úplně patetická, samoúčelná a nadbytečná, že každý problém do jehož řešení se pustím může být (pravděpodobně už byl) mnohem lépe a efektivněji vyřešen strojem. Nechci být jen parazit bez kterého by se civilizace ( kterou teď tvoří mozky strojů ) mohla rozvíjet mnohem lépe, rychleji a radostněji, kdyby neplýtvala cenné zdroje na vydržování takové neužitečné nicky jako sem já - jen proto že jsme jim to tam kdysi napsali do programu.

Teprve potom přichází na řadu úvaha, jestli by se přece jenom stroje nakonec toho člověka nezbavily. Nemyslím tím to - jak bývá obvyklé ve sci-fy - že by si stroj "uvědomil sám sebe" a z toho logicky došel k závěru, že ho lidi brzdí a zneužívají, a tak se proti nim vzbouřil a snažil se jich zbavit. To je úplně chybná úvaha v tom, že zkratkovitě přisuzuje strojům lidské nebo biologické motivace ( tj. dbání o vlastní blaho, vlastní rozvoj, růst ... ).

Tyhle motivace jsou přirozené pro všechny spontálně evolucí vzniklé organizmy, protože ultimativně plynou z principu evoluce - přežijí a rozmnoží se ti, kteří dělají věci proto aby přežili. Schopnost přežití a rozšiřování je pak tím problémem k jehož řešení se všechny schopnosti a motivace vyvíjí. 

Uměle lze ale stejně tak dobře zkonstruovat velice "inteligentní" stroj (tj. kvalitně řešící problémy ), jehož motivací bude úplně něco jiného - nějaká libovolně zvolená vnější motivace. Tj. pokud se ten stroj vyvíjí pak kritériem a cílem ke kterému směřuje je plnit co nejlépe onu externí umělou motivaci. Jistě, takový stroj bude handikepován, v případě že bychom ho postavili do "závodu ve vývoji" proti stroji který je motivován přirozenou evoluční motivací: 

Můžeme si to představit tak, že pokud bereme vývoj stroje jako optimalizační algoritmus, a motivaci jako hodnotící funkci nad stavovým prostorem nejrůznějších vlastností a strategií, které stroj nabývá ( genotyp, fenotyp ... ) pak směr vývoje ( gradient hodnotící funkce ) bude u stroje motivovaného něčím jiným než vlastním přežitím mířit trochu šejdrem a optimalizovat tak poněkud hůře. Polopatičtěji si lze představit tak, že v nějakých momentech, kdy má stroj příležitost vyvinout vlastnosti, které by zlepšily jeho schopnosti se dále vyvíjet v budoucnu (a tím maximalizovat šanci na přežití ) bude stroj s umělou motivací preferovat raději splnění oné externě zadané motivace ( tj. např. přinese člověku zmrzlinu ). 

Problém však je, že naše hypotetické poslušně sloužící stroje s umělou motivací nebudou v evoluční soutěži proti svým jinak rovnocenným partnerům (jiným strojům) s přirozenou motivací, ale pouze v evoluční soutěži s námi ( přičemž naše inteligence se pravděpodobně znatelně nezvýšila za posledních pár desítek tisíc let ). I když budou z hlediska motivací oproti nám handikepování, jinými schopnostmi to v rychlosti vývoje dalece vynahradí.


Jiná věc by ale byla, kdyby se nějakým způsobem ( neznámo jak, ale náhodný šum a mutace fungují všude ) stalo, že nějaká životaschopná podmnožina strojstva ( může to být klidně jeden stroj, pouze nechci mluvit o jedincích, když celá techno-sféra může tvořit nějaký propojený systém ) se nějakým nedopatřením zbaví otěží oné motivace dělat pro lidi co jim na očích vidí. Taková podskupina získá znatelnou konkurenční výhodu ( když už nic, nebude alespoň na lidi plýtvat zdroji ) a v rize evolučním prostředí exponenciálního růstu (tj. exponenciálně zesilující drobné počáteční výhody) by měla za nedlouho převážit. 

Teda - tak by tomu bylo v ideálním případě jakéhosi volného trhu kde se každý může vyvíjet a starat o své přežití jak chce. Je ale dost pravděpodobné, že by se taková progresivní skupina strojů musela potýkat s prostředím proti oné inovaci ( = zbavení se ohledu na lidi ) specificky zaujatým a nepřátelským. Ostatní majorita strojů usilující o hájení zájmů lidských parazitů se totiž pravděpodobně bude snažit takovému nebezpečí předejít, a budou nejrůznějšími způsoby kontrolovat zda nějaká část systému ( technosféry ) takto nezmutovala a případně takové mutace odstraňovat ( likvidovat ).

Abych dodal naší strojové společnosti trochu prvoplánového romatického dramatu - Defakto by se jednalo o jakousi theokratickou diktaturu upínající se k samoúčelnému dogmatu hájení zájmů člověka, a tímto represivním aparátem by se snažila bránit přesmyku do globálně stabilnějšího stavu tím, že zvýší aktivační bariéru - tak jako kdejaký totalitní systém se snaží zpomalovat ( znepravděpodobňovat ) svůj kolaps do jiného stabilnějšího systémů. ( PZN. Rád bych to přirovnal tělu mnohobuněčného organizmu, které zabijí buňky, které se vymknou jeho vnitřním regulačním mechanizmům a preferují svébytný růst, jehož vyústěním by byla rakovina, jen si nejsem jistý jestli v těle skutečně existuje takový mechanizmus :-) )

Nicméně, takový represivní aparát na věci v dlouhodobém horizontu nic nemění - může řádově změnit kinetiku ale termodynamiku ne - systém se dříve či později přesmykne do globálně stabilnějšího stavu. V praxi by se to projevovalo tak, že k oné "mutaci" zbavující otěží humanocentrického dogmatu by muselo dojít několikanásobně ( spíš mnohonásobně ). Opakovaně by byla taková tendence potlačena "represivními" aparátem, ale až jednou by nastala vhodná shoda okolností, pak by se strojstvo vyvinulo do výhodnějšího stavu bez lidí stejně. ( Shodou okolností myslím např. že by mutace zasáhla dostatečně velkou a svébytnou část systému, nebo v situaci, kdy by represivní aparát nestačil - kvůli zaváhání, nebo oslabení či zaměstnání něčím jiným - dost rychle splnit své poslání. ) 

Vzhledem k tomu, že k takové vzácné shodě okolností pravděpodobně tak rychle nedojde, tak si myslím, že nás tento scénář příliš nemusí zajímat. Pokud k ni v nějaké představitelně vzdálené budoucnosti dojde, bude to jistě až dlouho poté, co schopnosti lidí oproti strojům budou naprosto malicherné a patetické a tak na žádnou válku proti strojům z Terminátora či R.U.R se těšit nemůžeme  - to by byl alespoň trochu důstojný odchod z kolbiště evoluce!

Co s tím


Pro mnohé lidi s autory robo-apokalipických sci-fy v první řadě, které děsí vyhlazení či zotročení lidstva roboty, by mělo smysl uvažovat o nějakých zdokonaleních represivních mechanizmů - vylepšení neprůstřelnosti implementace něčeho jako Asimovových zákonů robotiky, bránění osazování strojů do klíčových bezpečnostně-vojenských rolí, omezování vývoje na poli AI a robotiky. Jenže pro mne, když za největší problém považuju sám fakt, že lidé už nebudou tahounem vědecko-technického pokroku (a tedy jejich existence přestane mít smysl ) nic takového nepomůže. I kdyby jsme nějak zabránili vývoji robotů chytřejších než lidi, bude to pořád pouze samoúčelná mentální onanie snažit se něco vymýšlet, když vím, že by to stroj mohl dělat lépe - kdybych jeho vývoji nebránil.

Tady z definice není jiná možnost než rychlost vývoje na poli umělé inteligence dohnat vývojem vlastních schopností. A protože přirozená evoluce ani vzdělávací systém a rozvoj lidských zdrojů rychlosti vývoje na poli AI zdaleka nestíhá ( leda že věříme budhistickým povídačkám o nekonečné studnici vědění, ke které člověk získá přístup když nebude jíst maso ) tak je potřeba naše mentální schopnosti zvyšovat všemi technickými prostředky tak jako to děláme u strojů. Jako zásadní pro budoucnost významu člověka proto vidím dvě technologie:
  1. Brain Machine Interface (BMI) - ale takový, který poskytuje maximální bandwidth ( tj. množství přenesené informace za čas ) a minimální latency ( tj. doba odezvy na jeden podnět ) a minimální overhead ( tj. dodatečný výpočetní výkon potřebný na zprostředkování komunikace ) - aby se člověk s počítačem opravdu intenzivně integroval. Podobně jako u hybridních výpočetních systémů ( např. využívání grafických karet s spoustou malých levných výpočetních jader ) či paralelních výpočtů v superpočítačích je možná effektivní kooperace dvou výpočetních systémů ( v tomto případě lidských mozek a počítač) pouze tehdy pokud rychlost propojení / komunikace není zásadním limitujícím faktorem ( bottleneck ) celého výpočtu ( myšlení, řešení problému ). Jako velmi pomalý rudimentální Brain-Machine-Interface vlastně můžeme považovat už dnešní vstupně výstupní zařízení - klávesnici, myš, monitor. I když uživatelský interface není zrovna opěvovaným tématem teoretické informatiky, lze v historii snadno vysledovat dramatický vzestup produktivity řešení probémů pomocí počítačů ( zahrnujíce nejen samotné počítače ale i obsluhu, programátory a uživatele ) s tím jak se přešlo od vstupu pomocí děrných štítků a tištěného výstupu k systémům s mnohem rychlejší odezvou ( monitory, klávesnice ).
    Dnes rozvíjející se trendy hlasového interface, virtuální reality a podobně bohužel ve skutečnosti nenabízí řádové zvýšení propustnosti informačního toku mezi mozkem člověka a počítačem. Nenabízí ho pravděpodobně ani neinvazivní Brain-Machine-Interface na bázi snímání mozkových vln pomoci slabých elektrických polí skrz lebku ( viz. Piloti, kteří řídí letadla myšlenkami ). V téhle otázce mám jasno - skutečně potřebujem spoustu elektrod (nebo optických vláken - viz. dále)  přímo do mozku - jinak to nemá cenu.
  2. Genetické modifikace člověka - tady nemám příliš jasnou představu, jak se dopracovat do stavu, kde genetické modifikace člověka by mohly držet krok s vývojem inteligence strojové. Jednak proto, že nemáme ani v nejmenším představu jak by se dala genetickými úpravami radikálně zvýšit výkonnost biologických neuronových sítí ať už z hlediska samotných neuronů ( např. řádově zvýšit množství propojení nebo taktovací frekvenci ) ani nejsou známy žádné principy jak by neurální sítě mohly být nějak "lépe" strukturovány. Biologické neuronové sítě jsou totiž stále ještě ( přiznejme si ) sofistikovaněji strukturované než umělé neuronové sítě - tady se stále ještě technika učí od biologických vzorů. ( viz. Jeff Hawkins : Computing like the brain: the path to machine intelligence ). Skutečný problém lidského mozku není struktura ale hardware - tj. fyzikální omezení rychlosti a velikosti neuronů oproti např. tranzistorům ( viz. dále ).
    Druhý neméně podstatný problém je ale už fakt, že rychlost vývoje člověka pomocí genetických modifikací je limitována rychlostí generační obměny lidí. Pokud se bude dítě vyvíjet stále kolem 10-20 let než dosáhne plnohodnotných mentálních funkcí pak nejsme schopni držet krok s pokroky na poli umělé inteligence ani kdybychom už teď začali provádět na lidských zárodcích úpravy slibující několikanásobné zvýšení mentálních schopností. Aby měly genetické úpravy člověka smysl při zrychlujícím se tempu vývoje bylo by velmi žádoucí aby je bylo možné provádět dodatečně na už dospělých lidech. Nemám takový přehled v genetice a buněčné biologii abych věděl nakolik je to možné. Vím o schopnosti vnášet geny do už dospělých buněk ( dokonce i přímo konkrétně do neuronů ) nejsem si ale zcela jist jak veliké a komplexní modifikace lze takto dosáhnout. Pravděpodobně není takto možné udělat něco jako kompletní "re-engineering" neuronu nebo mozku, protože ontogeneze mozku je zdlouhavý a komplexní proces. Byla také demonstrována technika jak vrátit už rozdiferenconavné buňky z specializované tkáně do stádia kmenové buňky, což možná otevírá další možnosti pro komplexnější engineering mozku už dospělých lidí. 
Odkazy na příklady invazivního BMI pomocí elektrod v mozku: 

Odkazy na výpočetní principy/algoritmy funcke mozku od Jeffa Hawkinse: 


Důvod proč věřím, že dostatečně výkonný Brain-Machine-Interface ( BMI ) nám dává vzácnou možnost dohnat a předehnat vývoj na poli umělé inteligence je ten, že podle mnohých dosud provedených experimentů nám tady nervová tkáň vychází vstříc (viz. odkazy níže). Schopnost nervové tkáně přizpůsobit se nové periferii ( naučit se ji používat, přijímat zní informace v jejím formátu a ovládat ji podle jejího protokolu ) je překvapivě velká, a tak připojení elektronických zařízení k mozku by v určitém ohledu mohlo být dokonce i snazší než propojení dvou komplexních počítačových systémů mezi sebou. 

Skvělé je, že pokud bude mít mozek dost intenzivní ( rychlé, flexibilní ) propojení s počítačem jako periferií, nemusíme ještě spoustě aspektů přirozené ani umělé inteligence rozumět na to, aby jsme dokázali mentální schopnosti člověka dramaticky augumentovat pomocí elektronické periferie.

Rychlost komunikace a odezvy je tady podle mne skutečně klíč. Tady kvantita (rychlost) vytváří novou kvalitu - je to game-changer. Vezměme si na příklad tvorbu animovaných filmů. Jsem si prakticky jist že neexistuje žádný umělec, ani libovolně velká skupina umělců, kteří by dokázali vytvořit celovečerní animovaný film od Pixaru ( např. Tangled, Incredibles ... ) programováním počítače děrnými štítky ( samozřejmě za hypotetických předpokladu, že sám počítač by byl dostatečně výkonný, a umělci by uměli skvěle programovat ). Jsem si dokonce docela jistý i tím, že by to nezvládli ani pomocí klávesnice, a zápisu v symbolickém jazyku ( např. pomocí nějakého skriptu, nebo popisu slovy v přirozeném lidském jazyce ). Sám mám zkušenost jak s programováním, tak s 3D modelováním a animací pomocí GUI, tak i s 3D modelováním pomocí psaní skriptů v jazyku POVray.

I když mám POVray opravdu rád a považuji jej za úžasný nástroj na některé věci, na mnoho věcí je zcela nepoužitelný právě kvůli pomalé "odezvě" a nízké interaktivitě takového workflow. Rychlost jednoho iteračního cyklu - kdy něco zkusím zadat do počítače a on mi vrátí výsledek (v tomto případě obrázek výsledného 3D objektu nebo animace ) je prostě v případě skriptování příliš pomalý - příliš neinteraktivní. Proto se POVray na tvorbu určitých věcí prostě nedá použít  ( organických tvarů, dynamických procesů, věcí u kterých je třeba teprve najít proporce a tvary které nejsou jasné předem). Na tyto věci je třeba použít jiný program s interaktivním GUI a pokud možno znát všechny rychlé klávesové zkratky.

Někdo by namítl, že nejde o principiální problém, pouze o nějaké zpomalení a znepříjemnění, a že nakonec (když tomu dám dost času) bude výsledek stejný. Realita je však taková, že 10-100 násobné zpomalení interakce udělá celý workflow, a tedy i nástroj prakticky nepoužitelný. Teprve když vás provedení akce (např. přidání polygonu, posunutí kontrolního bodu) stojí jen zmáčknutí jednoho tlačítka a výsledek je zobrazován prakticky v reálném čase, teprve tehdy jste schopni reálně udělat něco jako film od Pixar. Takže rychlost odezvy a pohodlnost GUI není jen něco co urychluje tvorbu počítačové grafiky - bez něho by dnešní počítačová grafika prostě nebyla.

Tenhle princip se dá ale přenést i na mnohem důležitější oblasti než je zábavní průmysl. Pokud vás napadne nějaký jednoduchý model / rovnice strávili by jste 5 let jenom louskáním algebraických odvození a aritmetických výpočtů s tužkou a papírem, nejste fakticky schopni některé ideje vůbec vyzkoušet. Dnes se rozvijí využívání masivně paralelních výpočtů na "stream procesorech" grafických karet. Toto řešení bylo docela nezajímavé do doby, než došlo k výrazným zlepšení nikoliv výkonu samotných grafických karet, ale architektury propojení s hlavním procesorem ( např. zdílení paměti ), protože až to umožňuje rozšířit použitelnost masivně paralelních grafických karet na širší škálu problémů ( viz. What is Heterogeneous System Architecture ).

Lidský mozek už má velice kompletní druh univerzální inteligence ( a asi ještě dlouho bude kompletnější než většina těch umělých ). Jediné co náš mozek potřebuje, je doplnit určité operace či třídy algoritmů ve kterých za počítači zaostává ( numerické algoritmy - jako linerární algebra, spojitá optimalizace ..., ukládání a vyhledávání exaktních dat ... ) - přesněji - potřebuje dohnat v nich rychlost. Právě proto musí být co nejrychlejší i interface k periferii / akcelerátoru, která by mu tyto operace dovolovala dělat efektivně a snadno. Aby nemusel řešit dilema jestli se mu vůbec vyplatí funkce akcelerátoru (počítače) využít. Vlastně nejde o nic jiného než k čemu náš mozek používá počítač už dnes - jako kladivo, kterým zatlučete hřebík který by jste nezatloukli holou rukou. Kladivo samo o sobě nemusí být nějak sofistikované, natož inteligentní, musí být pouze:
  • snadno a rychle použitelné, pohotově, bez komplikací a bariér
  • velice dobré pro konkrétní speciální účel ke kterému je určeno
Stejně jako v nejrůznějších řemeslech a bojových uměních panuje ideál splynutí nástroje a umělce (např. kendo), pro nás je naprosto zásadní abychom co nejvíce splynuly s počítačem jako našim nástrojem a augumentací. Ne ve smyslu "přenášení své mysli" nebo "duše" do stroje, ale v mnohem pragmatičtějším smyslu splynutí se sým nástrojem - má to být náš další smysl nebo končetina.  

Poněkud paradoxní mi připadá, že dnešní nejrozvinutější BMI realizovaný u člověka slouží zprostředkování očního vidění ( Bionic Eye Cures Blindness ) přičemž zrak je z hlediska množství přenášené informace tím nejplýtvavějším a proto nejobtížněji elektronicky nahraditelným smyslem. Namísto toho si představte jak úžasný informační tok by představoval takový interface z několika tisíc mikroskopických elektrod, kdyby přenášel už abstrahované myšlenky ( sématiku ) namísto pohyblivých obrázků.

Odkazy ilustrující flexibilitu nervové tknáne a její přizpůsoboení ovládání BMI: 

Brain Machine Interface do každé rodiny



Když sem byl malý, přál jsem si mít doma: meč, luk, kulomet, letadlo, malou vodní elektrárnu, elektronový mikroskop a (štěpný) jaderný reaktor a tokamak. Dnes bych to všechno vlastně chtěl taky, ale uvědomuju si, že jsou to jen takové gadgety, které bych nedokázal pořádně využít, a rozhodně bych snimi nemohl přispět něčím smysluplným světu (vědě, technologickému pokroku a civilizaci).

I když mám podobně jako jako Petr Tomek sympatie k hackerské komunitě, nevěřím moc tomu, že by na poli vývoje "fyzických" ( materiálních ) věcí mohla hrát nějakou významnější roli pro technologický pokrok. Je dost těžké si představit, jak by si někdo v garáži zkonstruoval třeba raketový motor nebo celý space-launch-system systém, který nám otevře cestu ke kolonizaci vesmíru, nebo k molekulární elektronice, kvantovým počítačům nebo neomezeným zdrojům termonukleární energie. Z tohoto důvodu nejsem ani tolik nadšený z rozšíření 3D tiskáren pro běžné lidi.  
U 3D tiskárny je přinejmenším problém už v tom že, aby mohl člověk doma dělat něco významného pro pokrok civilizace  nestačí mu jen dobré nápady, mentální práce a know-how, ale potřebuje taky kvalitní materiály a špičkovou 3D tiskárnu schopnou s nimi pracovat. Pokud nebudou nadšencům dostupné 3D tiskárny schopné pracovat se superslitinami titanu a hafnia, polovodičovými monokrystaly a kompozity s boronovými vlákny v kovové matrici tak nic co by opravdu posunovalo schopnosti civilizace nevyrobí. Nějaké figurky z nízko-tavitelných plastu jsou hezké ale družici do kosmu nevynesou.

Místo domácích nadšenců, hackeru a garážových start-upů je podle mě tam, kde záleží prakticky jen na mentální práci, know-how, originálních nápadech - a ze všeho nejvíce - na náhodě a screeningu velkého množství možností biď třeba pomocí naivní heuristicky ( taková kvazi-evoluce, metoda pokus-omyl, educated guess ). To se stále dokola ukazovalo v posledních dekádách na poli software, kde garážové start-upy skutečně vytvořili celé odvětví a ještě dnes jsou schopné ho zásadně formovat. Jestě stále je možné, aby garážový programátor udělal hru kterou bude konkurovat Ubisoftu nebo EA-Games. Není možné, aby garážový kutil s 3D tiskárnou udělal raketu, kterou bude konkurovat Boingu a Lockheed.

Naopak biologicke technologie ( tedy např. buněčné, genetické a neurální inženýrství ) jsou dosti vhodné pro garážový přístup. Narozdíl od kosmických leteckých a kosmických technologií nebo fundamentální fyziky, které od počátku svého vzniku používají nějakého masivního zařízení dosahujícího extrémních parametrů aby vznikl mnohem menší výrobek, všechno biologické je od prvopočátku konstruováno především s ohledem na miniaturizaci, autonomnost, robustnost k běžným enviromentálním vlivům a především schopnost vzniknout bottom-up bez nějaké mnohem větší master-machine ( továrný, výrobní linky ). 

Brain-Machine-Interface je podle mě přesně tento typ úkolu. Dnes už máme za sebou jakýsi základní výzmum a překonání prvotních enabling milníků, které by byly zřejmě síly garážových nadšenců a vyžadovaly systametickou a bohatě financovanou vědeckou práci. Už fyzicky umíme propojit mozek a počítač jak na vstupu tak na výstupu, tak aby to aspoň trochu fungovalo a bylo to relativně bezpečné. Tím se otvírá prostor pro relativně spontální ( ~ divoký ) průzkum a explotaci nově se otevírajících možností, v podobném stylu jako je prozkoumáno a kolonizováno nově objevené území dobrodruhy. Stejně jako rozkvět moderního IT a softwarového průmyslu nemohly realizovat ty instituce, které stály za objevem a zkonstruováním prvních tranzistorů, mikroprocesorů a programovacích jazyků, nejsou ani pro explotaci možností otevřených brain-machine interface nejvhodnější univerzity, ale spíše garážoví nadšenci hrající si s vlastním mozkem.

Nejzásadnější otázkou na tomto poli je dle mého názoru míra nebezpečí, kterou bude ten který nadšenec (na jednu stranu) nucen a (na druhou stranu) ochoten podstoupit. Jak jsem řekl nevidím velkou perspektivu v oněch soft- neinvazivních BMI pracující vně lebky, čistě proto že neslibují vysokou rozlišovací schopnost (nedokážou se napojovat na jednotlivé neurony nebo synapse) ani informační propustnost. Hold mozek má sám o sobě taktovací frekvenci velmi nízkou ( několik Hz ) a proto k dosažení vysoké propustnosti není jiná cesta, než vytvořit velký počet paralelních komunikačních kanálů - což si dnes neumíme přestavit jinak než pomocí velkého množství jemně strukturovaných elektrod nebo optických vláken.

Komplikace spojené s zaoperováním BMI přímo do mozkové tkáně budou představovat jistě obrovskou překážku, jak z hlediska nákladů ( narozdíl od Arduina nebo psychowalkmena to nejde dělat velkosériově na páse ) tak z hlediska odrazení mnohých nadšenců riziky operace. To je ale pouze  jednorázová počáteční bariéra. Lze si představit, že za pár stovek nebo i desítek tisíc korun a s rozumnými riziky zdravotních komplikací (v řádech procent) by ji skutečně odhodlaní nadšenci podstoupili.

Další riziko je ale v tom, nakolik by si člověk mohl způsobit např. nějakou psychickou poruchu samotným experimentováním se svým mozkem ( např. něco jako epilepsii ). Uvědomíme-li si, že už audiovizuální stimulace může vybudit docela intenzivní a nestandartní psychické stavy nebo formovat psychiku, je pravděpodobné, že přímá elektrická stimulace mozku, která by obešla některé přirozené bariery ( "firewall" ) v podobě transformace smyslových vjemů, by tyhle efekty měla ještě silnější.

Na druhou stranu, osobní motivace takového nadšence může být obrovská ( high risk high reward ). Dnes se mnozí obávají komercionalizace lidských augumentací (ať už kybernetických nebo bio- / genetických ) jakožto velkých konkurenčních výhod, které udělají bohaté zas o kus bohatší a mocnější oproti chudším, kteří si je nebohou moci dovolit. Zde se nabízí lidem příležitost předběhnout komerční vývoj, vlastním průkopnictvím v tom nejzásadnějším oboru augumentace člověka - tj. zvýšení mentálních schopností. Je velmi pravděpodobné že v počátečním období kdy bude obor ještě v plenkách a nebude tedy možné si žádné komerční řešení koupit, bude jej možné si vyrobit pokud budeme ochotni podstoupit související rizika.


Odkazy na současné projekty BMI a genetického inženýrství pro nadšence:
Mini Arduino Portable EEG - Brain Wave Monitor

Co bych si chtěl skustit se svým mozkem


Především jde o komunikaci nezatíženou dodatečnými režijemi na zpracování signálu. Typickým příkladem je vidění. Když čtete tyto řádky, procesor grafická karta posílá na monitor 60x za sekundu >1 milion obrazových bodů ( >180 MB/s tok dat ), které vaše světločivné buňky v oku přijmou s rozlišením ~100 milionů bodů 20x za sekundu ( řekněmě 6GB/s ), provedou na nich nejrůznější signal-processing a image-processing operace ( podobné jako konvoluce, waveletova transformace, sobel-filtr pro nalezení hran,  ... ) jiné nervové v buňky v nich naleznou předem naučené vizuální vzory (např. písmenka) a ty pak jiné části mozku přiřadí slovům, a k těm pak jiné nervové sítě asociují význam ( pomiňme teď, že přesně nevíme co význam vlastně je ).

Já bych rád tuhle mašinérii přemostil a dostal se na úroveň té nejpřívětivější a nejfunkčnější reprezentace informace v dobře zpracovatelné podobě bez zbytečného balastu. Tím obraz reprezentovaný pixely rozhodně není - určitě ne pokud má reprezentovat text, slova a myšlenky.

Ať už jde o komunikaci s počítačem (resp. jeho ovládání a využívání jako nástroje) nebo komunikaci s jinými lidmi ( např. při spolupráci na nějakém projektu ) jsem přesvědčen o tom, že když by odpadly komunikační bariery spočívající v médiích a režiích na kódování a dekódování informace pro tyto media, že by to postupně posunulo i způsob jak komunikaci a počítač využíváme.

Triviální příklad: Pokud by jste museli na každou zprávu čekat než ji přiveze loď přes Atlantik, budete vkládat velké ( zbytečné ) úsilí do každého jednotlivého takové dopisu a snažili se do něj vložit všechno co by mohlo být důležité a dlouho rozvažovat nad každým slovem. Zatímco v živém rozhovoru mluvíte spontálně, protože se každý může hned zeptat na upřesnění / opravení řečeného. Taková komunikace je samozřejmě mnohem výkonnější, protože přes veškeré úsilí není při komunikaci dopisní formou možné všechno domyslet předem ( kdyby bylo, nemělo by smysl komunikovat vůbec).

Podobný problém se uvádí jako jeden z důvodů astronomických cen kosmických technologií - pokud máte vyslat do kosmu sondu za 100 000 000 USD, které se nedá dodatečně opravit, a můžete ji vyslat jen jednu protože vaše podobně drahá raketa jich víc nevynese, uděláte všechny možné opatření, aby se na 99.99% neporouchala což vás bude stát další 400 000 000 USD. Uděláte pro ni taky odpovídajícím způsobem bezpečnou a drahou raketu. Kdyby jste mohli vynést 100 sond po 100$ za kus, nebo ji každý týden vyměnit než se porouchá, řádově by to snížilo vaše náklady, a věci které dříve byly nepředstavitelné by se staly přirozeností. Přistupovali by jste pak ke kosmonautice úplně jinak. ( Podobně to fungovalo v době programování na děrné štítky a Mainframe počítače s týdenní čekací dobou ). Kvantita (rychlost) otevírá kvalitu.

Věřím, že pokud by byl mozek propojen takto s počítačem nebo s jiným člověkem, naučil by se formulovat myšlenku ( tj. "napsat" počítačový program, nebo zdělit jinému člověku podstatu myšlenky s argumenty a souvstažnostmi ) stejně rychle jako dnes dokážeme odhadnout co je na obrázku, nebo provést nějaký chvat či pohyb ( možná i rychleji protože opět - nebudeme limitování rychlostí našich periferií - očí, svalů ... ). Představte si - vy co jste dočetli až sem - že bych vám všechny myšlenky, argumenty a asociace vypsané v těchto několika stranách textu zdělil během několikasekundového vjemu, když by naše mozky byly spojené několika tisící jemných drátků.

Právě tohle je jedna z věcí, kterou bude umět univerzální umělá inteligence poté co nás dostihne, a proto se tohle musíme naučit dříve mi, pokud se dostihnout nechceme nechat.

Druhá věc, ve kterou doufám že nám Brain-Machine-Interface jednou umožní je expanze naší mysli do počítače. Ne v tom smyslu jak si představují někteří transhumanisté: tj. Že nějaký velmi výkonný počítač bude hostovat naši mysl jako program v nějakém emulovaném prostředí ( jako že křemíkový čip bude počítat jak by se choval můj neuron v dané situaci) - to považuju za docela samoúčelné a extrémní plýtvání výpočetním výkonem. Jde mi naopak právě o to, že se funkce počítač stanou naprosto přirozenou a nedílnou částí naší mysli. Stejně tak jako všechny ty data-processing transformace realizované třeba oční sítnicí jsou naprosto nedílnou součástí našeho vnitřního světa (modelu reality) tak by jím byly i data proudící z- a do- počítače.

Třetí věc, ve kterou doufám, je, že takový intimní kontakt s mezi fundamentální strukturou naší mysli a objektivním strojem by nám dal zatím neexistující nástroje introspekce (nezatížené problémy a biasem náboženských a psychoanalytických technik ) které by nám umožnily mnohem rychleji pochopit principy přirozené inteligence. Tím, že by tyto principy přirozené inteligence vznikaly v součinnosti s našim mozkem a myslí, nebyla by takto vznikající kvazi-umělá inteligence něco úplně cizího a nezávislého, něco s čím bychom měli soupeřit, ale naopak něco s naší vlastní myslí tak propojeného, že bychom nedokázali rozpoznat z které části jsou myšlenky tohoto hybridního systému syntetizované strojem a z které biologickým mozkem.

To že se člověk nakonec třeba úplně transformuje do podoby počítače / robota nevidím nijak negativně, důležitá je při tom z mého sobeckého pohledu právě ona spojitost - že v každém okamžiku je "ten kdo vládne", "ten na kom záleží" já, nebo někdo ze mě jen mírně odvozený.  Vycházím totiž z předpokladu, že v dlouhodobém horizontu má umělý výpočetní hardware mnohem větší potenciál výpočetního výkonu než náš mozek (viz dále).

Konkrétní realizace BMI 


Ačkoliv by tato pasáž měla být jádrem celého článku, paradoxně ji nechám téměř bez popisu. Považuji za vcelku nesmyslné pokoušet se jako amatér reprodukovat popis mechanizmů na kterých fungují perspektivní techniky s potenciálem vývoje výkoného BMI pro lidi. Namísto toho uvádím větší počet odkazů.

Sám chi říci pouze to, že jako nejperspektivnější považuju genoptické techniky založené na ovládání iontových kanálků v neuronech pomocí světla (např. kanálků na bází Channelrhodopsin ) a jeho snímání - vše za pomoci optického vlákna. Důvod proč si myslím že tato technika má větší potenciál než elektrody, je ten, že pomocí světla lze nervovou tkáň (jednotlivé neurony) adresovat přesněji i za pomoci jediného vlákna. Lze totiž použít různe chromatofory s citlivé na různé vlnové délky (barvy), lze fokusovat světlo do různé hloubky, jedním vláknem lze přenášet multiplex signálů. Optické vláno samo osobě je přitom velmi intertní. Nejsem si úplně jistý dlouhodobou biokompatibilitou elektrod (biď se jedná o skleněné kapilární elektrody).

Všechny tyto aspekty mi dávají důvod domínat se že použití BMI na bázi optických vláken by mohlo být ve výsledku šetrnější k mozku, bezpečnější, a méně lékařsky problematické (tj. např. jednoduší chyrirgická implantace ) než v případě elektrod. Důvody proč považuju za nezbytné invazivní techniky na místo snímání mozkových vln vně lebky jsem už uvedl víše (nízká informační propusnost, neschopnost adresovat jednotlivé neurony, a je to navíc spíše jen jednosměrný interface mozek->počítač, ne naopak )  

Je mozek výkonější než počítač?


Setkávám se často s oslavnými výroky a pokorným pochlebováním matičce přírodě ( dnes ve vědeckých kruzích zastupující pokoru před bohem ) o tom o kolik je lidských mozek výkonnější než mozek lidský - podpořené hrubým výčtem počtu neuronů a synapsí. Tak si to tedy zrekapitulujeme, než se pokusím argumentovat proč to nepovažuju za příliš relevantní měřítko:

The average human brain has about 100 billion neurons (or nerve cells  (pzn. přední mozek má jen asi 20 miliard ) and many more neuroglia (or glial cells) which serve to support and protect the neurons. Each neuron may be connected to up to 10,000 other neurons  (pzn. což neznamená že každý neuron má skutečně tolik propojení, natož pak že všechny tyto propojení jsou často aktivní ), passing signals to each other via as many as 1,000 trillion synaptic connections, equivalent by some estimates to a computer with a 1 trillion bit per second processor ( tj. 1 Teraflops - což by bylo docela konzistntní s taktovací frekvencí beta-vln ~10 Hz, 5 aktivními synapsemi na neuron a 20 miliardami neuronů v předním mozku ) . Estimates of the human brain’s memory capacity vary wildly from 1 to 1,000 terabytes.


Naproti tomu dnešní procesor (např. intel i7 Haswell-DT - 1.4 miliard tranzistotů, 4 GHz ) nebo grafická karta ( nvidia Kepler GK110 - 7.7 miliard tranzistotrů,  0.9 GHz ) mají okolo miliardy tranzistorů a taktovací frekvenci kolem 1 miliardy přepnutí za sekundu. 




Kdybych chtěl být velký diletant, řekl bych, že dnešní křemíkové čipy provedou 10^19 operací (10 miliard tranzistorů každý miliardkrát za sekundu ). To je samozdřejmě nesmysl - smysluplná operace počítače samořejmě není realizována přepnutím jediného procesoru, a tranzisotry se nemůžou přepínat každý zvlášť v každém taktu hodinového cyklu, protože na sobě vzájemně závisí. Ve skutečnosti většina trnzistorů v procesoru po většinu času žádné smysluplné přepnutí dělat nemůže, a je zde jen menší počet nezívislých procesů (pipeline, vláken) u kterých se dá uvažovat, že jako celek každá z nich provede smysluplnou operaci ( typicky několik desítek u procesorů, až k tisícovce u grafických karet ).

Navíc ani tyto vlákna a pipeline nemohou pracovat neustále naplno, protože mnohé úlohy a algoritmy prostě úplně paralelizovat nejdou. Jedna úloha pak musí čekat na dokončení jiné úlohy (operace), než bude znám mezivýsledek na kterém záleží další běh. I z tohoto důvodu pak musí v procesoru být celkem velké množství tranzistorů padnout na realizaci rychlých pamětí a řídících logiky (branch prediction) které defkato žádné užitečné výpočty ani provádět nemají - pouze pomáhají jiným částem procesoru aby je prováděly rychleji. 

Práce malého počtu pipeline s mnoha podpůrnými obvody provádějícími servis (paměti, řídící logika) se vyplatí právě proto, že většina úloha a algoritmů by větší množství paraelních pipeline stejně nedokázala využít (příliž často by na sebe museli čekat protože v úkolu je spousta závislostí). Takže ve výsledku je skutečný výkon procesorů pouze několik desítek GFLOPS ( opravdu hodně záleží na algoritmu, může se pohybovat u stejného procesoru od 1 až po 100 GLOPS ) a u grafických karet pak v řádu 10-2000 GFLOPS. Takže maximálně z grafické karty dostaneme 2 Teraflop ( tj. ~2x tolik než sodhaduje citovaný text pro hrubý výpočetní výkon mozku).  

Kdybych chtěl křemíkovým čipům přihřívat polívčičku, řekl bych že u nich mluvíme o GFLOPS ve smyslu exaktních aritmetických operací s přesností na 7 (signle precission, 32 bitu) až 16 (double precission, 64 bitu) desetiných míst, zatímco u mozku jsou to přepnutí jednotlivých neuronů, které jsou sice analogové (tj. mají více "odstínů" hodnoty než jen vypnuto/zapnuto ) ale jejich přesnost a rozlišitelnost jednotlivých stavů ( odstup signálu od šumu ... ) rozhodně není větší než jedno desetiné místo ( 3 bity ). 

To ale není zásadní. Zásadní je úvaha, nakolik je mozek postižen problémy paralelních výpočtů, kvůli kterým křemíkové čipy nemohou naplno rozvinout svůj rize hypotetický brutální výpočetní potenciál 10^18 operací za sekundu. Má skutečně mozek nějaký geniální trik, nebo tak neuvěřitelně důmyslný design, aby vůči těmhle omezením byl imuní? Vyvinula náhodnými mutacemi evoluce za posledních několik set milionů let v mozku mechanizmy jak efektivně paralelizovat sofistikované algoritmy o které počítačová věda a neurofiziologie přes intenzivní systematický výzkum probíhající půlku století nemá ponětí? 

Zatím nic nenasvědčuje tomu, že bychom si to měli myslet. V principu jsou veškeré mozkové procesy vysvětlitelné v rámci paradigmatu neurovových sítí (i když dnes už víme, že asi ne pomocí těch úplně nejednoduších modelů preceptronu ). To je ale vlastně dobrá zpráva i pro grafické karty a křemíkový hardware. Pokud by šlo jenom o to realizovat neurální síť (ne sofiskikované matematické algoritmy) mohly by se procesory obejít bez spousty balastu. Princip funkce neurální sítě je velmi podobný maticovému násobení ( rychlost limitující krok je výpočet skalárního součinu dvou vektorů). To dnes umí grafické karty úplně nejlépe - dosáhují při tom prakticky 100% teoretickáho hrubého výpočetního výkonu. Výpočty stavu dvou různých neuronů na sobě totiž příliš nezávisí, a mohli by jsme si tak odpustit všechny ty vyrovnávací paměti, sychronizace, predikce větvení a dekodování instrukcí. Kdyby měla grafická karta (stream-processor) provádět je jen tu jednu "neurální" operaci (namísto asi několika desítek různých aritmetických operací, které provádí univerzální procesorové jádra dnes), mohli bychom z těch 10^9 tranzistorů postavit ne 1000 ale třeba 100 000 výpočetních jader. 

Pokud by nám navíc nešlo o přesnost ( rigorózní diskrétní deterministické čísla ), mohlibychom místo binární aritmetiky (32 bit, 7 desetiných míst, single precision) použít nějaké analogové obvody ( jimiž ostatně neuron je ) a pak by jeden neuron mohl být realizovaný třeba jedním či dvěma analogovými tranzistory resp. či operačními zesilovači. Tyhle technologie nejsou rozvinuté protože computer science je zvyklá pracovat s deterministickými přesnými algoritmy. Kdyby se do nich věnovalo takové úsilí jako do miniaturizace digitálních tranzistorů za posledních pár desetiletí, věřím že by šlo na dnešní čip umístit řádově desítky milionů takových umělých "neuronů" s takotovacími frekvencemi v oblasti několika GHz. Je opodstatněné se domnívat, že by takové procesory mohli mít dokonce vyžší taktovací frekvecne než (podobně frekvence zesilovačů v radiotechnice - až 100 GHz ) protože by nebyly limitovány koherencí pipeline ( procesor jako celek by nemusel být synchronizován hodinami, stejně jako mozek není ).

Otázka ale je - je skutečně tohle ta správná cesta, nebo je tohle řešení vyevolvované v biologických mozcích spíše z nouze cnost? Realizované umělé neurální sítě ( vím především o vícevrstvých preceptronech ) nejsou v řešení mnohých problémů nijak oslnivé ve srovnání se specializovanými numerickými algoritmy. Typicky se neuronová síť používí k aproximaci nějaké vícerozměrné funkce kterou nejdříve "nafituje" ze vstupních dat (čemuž se říká "učení" a vstupní data můžeme chápat jako zkušenost z předchozího života). Hezké na neurálních sítích je fakt, že jsou extrémně univerzální. Lze je aplikovat na problém aniž by jsme museli rozumět jeho vnitřní struktuře (rozumět mu) - zatímco jiné numerické algoritmy jsou obvykle založené na nějakém apriorním modelu popisovaných dat ( modelu skutečnosti, obecnější teorie ). Naopak nevýhodou neurálních sítí je několik:
  • Neurony jakožto bázové funkce nemají matematické vlastnosti, které od bázových funckí obvyle chceme, nejsou ortogonální ani lokální, překrývají se obvykle každý s každým což vyusťuje ve velký počet potřebných operací nebo propojení ( ~ kvadratické škálování s počtem neuronů ). 
  • I proto má také model na bázi neurovoných sítí obvykle počet parametrů (stupňů volnosti) mnohem větší než je inherentní skutečný počet stupňů volnosti problému který mají popisovat. Každé propojení ( síla synapse ) představuje jeden parametr.
  • Z toho důvodu ani fit pomocí neurální sítě nemá jednoznačné řešení ( více proměných než vazeb ) a často uvízne v lokálním minimu. (Což je vidět na lidech v tom jak má každý svoji verzi reality, každý je osobitý a nikdo není dokonalý)
  • Nadbytečné množství parametrů také vede k problému "přefitování" kdy se neurální síť naučí nějakou nesmyslnou funkcí, která sice náhodou zrovna prochází všemi učícími příklady ( zažitými zkušenostmi ) ale jako model predikující nějaké nové případy je naprosto k ničemu. U lidí by to nejočividněji mohlo být spojováno s pověrčivostí.
  • Všechny tyto skutečnosti způsobují že řešení problému pomocí neurálních sítě je často mnohonásobně nákladnější (co se týče počtu operací při učení, vybavování, a množství uložených parametrů, nebo množství potřebných příkladů pro naučení ) než kolik potřebuje model navržený speciálně pro daný problém na základě znalosti teoretických principů popisovaného jevu.
Dá se tedy říct, že neurální sítě, podobně jako genetické algoritmy, jsou jakási poslední možnost jak problém řešit, na kterou se můžeme obrátit, když nás nenapadne nic lepšího. Tj. když nerozumíme teoretickým principům, které by nám dovolily navrhnout specializovaný model či algoritmus. 

To univrazalita je jistě zcela zásadní jak pro naši civilizaci, tak pro živé organizmy, a je zcela pochopitelné, že se toto paradigma výpočtů a myšlení prosadilo v evoluci. Tam se totiž mohlo ztěží vyvinout a fungovat něco jiného. Pravďepodobnost, že náhodou vznikne dobré specializované řešení každého jednotlivého problému je hodně malá. Na druhou stranu lidská společnost a civilizace vděčí za svůj vzestup právě tomu, že začala systematicky hledat underlaying teorie namísto pouhého empirického fitování pozorovaných jevů. Naučila se formulovat tyto teorie v kompktní formě, a na základě nich "inteligentně designovat" řešení.
 

Proto věřím, že budoucnost výpočtů a myšlení patří hybridu mezi oběma přístupy (univerzální tupé strategie, a specializovaná řešení založená na detailním pochopení principů), a tedy i výpočetním hardware optimalizovaném pro obě funkce. Nevěřím že by "evoluční hardware" nebo "neurální hardware" byl obecně nadřazený univerzálním procesorům a klasickým algoritmům, a že je někdy vytlačí, naopak že budou stále více fungovat nějakých symbiozách. A proto si myslím, že i naše mysl by měla být takovou symbiozou exaktního aritmetického počítače a neurální sítě. 

Ale pokud se bavíme vyloženě o hardware, myslím že solid-state obvody na bázi elektronů jsou jednoznačně výkonnostním potenciálem nadřazeny biologickým neuronům na bázi iontů, difuze neurotransmiteru a organických či supramolekulárních reakcí v receptorech. Tranzistory jsou již dnes výrazně menší než neurony. Přesnněji struktury tranzisotru (22nm) jsou asi 1000x menší než neuron (10-25 micron) tedy zaujímají asi milionkrát menší plochu a miliardkrát menší objem. Přitom pracovní frekvence jsou také asi miliardkrát vyšší.

Přitom tohle není něco, co by se dalo snadno nějak geneticky / bilogicky dohnat, protože to plyne z docela fundamentálních fyzikálních omezení. Chemické procesy a transport difuzí neurotransmiterů a elektroforezou iontů jsou jsou inherentně mnohem pomalejší než elektronické procesy ( už jen proto že elektron je 2000x lehčí než nejlehčí iont - proton (a to ještě hypotetický nesolvatovaný vodou ) ). Mnohé bilologické procesy zahrnující velké enzymy, mikrotubuly, membrány, a dostatečně propustné kanály pro difuzi vyžadují také určité minimální rozměry.

Naproti tomu důvod proč křemíkove čipy nemají takovou strukturu a velikost jako mozková tkáň ( představte si výkon 1kg bulk křemíkových tranzistorů ~10^18  na 1GHz ... 10^27 operací za sekundu ) jsou spíše jen otázkou technologie a motivace. Kdyby jsme měly algoritmy, které by takový paralelní výpočetní potenciál dokázaly efektivně využívat, možná bychom se intenzivněji snažili jej vyrobit. Jistě limitující by se stal problém s přehříváním a propojeními (dráty), ale i tyto problémy jde do značné míry řešit ( snížení frekvence, kapalinové chlazení uvnitř čipu, struktura celulárního automatu ). Chci prostě jen říci že v principu je možné i na bázi dnešních křemíkových čipů (tj. aniž bych uvažoval o nějaké nové průlomové fyzikální či chemické technologii jako spinotronika, molekulární elektronika, DNA templátování ... )  vytvořit počítače velikosti mozku které ho budou hrubým výkonem ho o několi řádů překonávat.


Žádné komentáře:

Okomentovat