Výzkum je pro Fujitsu nutností, jde až k úplným základům

Dr. Joseph Reger je jednak CTO Fujistu Europe, jednak Fujitsu Fellow. Označením Fellow se u technologických firem může pochlubit jen několik málo výjimečných jedinců a vždy jde o vědce, kteří se zasadili o výzkum. Joseph Reger začínal svoji kariéru jako teoretický fyzik. Položili jsme mu jen jednu otázku: Může si technologická firma, jakou je Fujitsu, dovolit nejen aplikovaný, ale i základní výzkum? Nebo do něj prostě musí investovat, protože se bez něj neobejde?

Investice do výzkumu a vývoje ve Fujitsu

Tak za prvé, Fujitsu investuje do výzkumu 5 % svého ročního obratu, nikoliv pouze zisku. Je to velká, nebo malá částka? Záleží na úhlu pohledu. Pro technologickou firmu s rozsáhlým portfoliem je to částka velká a představuje 2 miliardy dolarů. Když to porovnáte se startupem, u kterého to není neobvyklé, protože startupy investují do výzkumu někdy 25 % až 30 % svého rozpočtu a přitom prakticky negenerují žádný příjem, pak oněch 5 % z obratu, tj. 2 miliardy dolarů, představuje obrovské číslo. V případě Fujitsu jde tato investice jak do aplikovaného, tak základního výzkumu.

Aplikovaný výzkum ve Fujitsu

Aplikovaný výzkum ve Fujitsu v zásadě znamená směřování k novým aktivitám. Jde o vývoj průřezem našich obchodních jednotek – serverů, storage, pracovních stanic, bezpečnostních technologií apod. Aplikovaný výzkum pro nás znamená zajištění kontinuity a výroby produktových řad a přidávání nových prvků do produktového portfolia, ať už jde o nové prvky do stávajících produktů, nebo zcela nové produkty.

Základní výzkum ve Fujitsu

Základní výzkum nám dává odpovědi na otázky, jak technologie mohou zásadním způsobem změnit a vyřešit řadu problémů, jak změnit celé jejich řešení, jak je přeměnit způsobem, jaký jsme ještě neviděli, jaký na světě nebyl. Nebo také znamená vynalézt technologie, jaké by se dotkly pokud možno všech našich obchodních jednotek, nejen je přiřadit jedné z nich. Hodně aktivit máme například na poli datacenter, zejména ohledně virtualizačních technologií. Ať už jde o softwarově definované storage, softwarově definovaný networking, nebo celé softwarově definované výpočetní prostředí. To vše souvisí s našimi obchodními jednotkami pro storage, servery i síťovými prvky. Proto také tyto technologie vyvíjíme v centrálních laboratořích, nikoliv v příslušných obchodních jednotkách. Znamená to také dvě základní věci. Jednak mohou nové technologie zlepšit jednotlivé produktové skupiny, jednak mohou ukázat na skutečnost, že současné produktové linie už nedávají smysl. Základní výzkum v nich nemůže být takto prováděn, protože žijí z příjmů ze současné výroby.

Nové směry a materiály

Dr. Joseph Reger, Fujitsu Fellow

Základní výzkum sahá skutečně daleko a týká se například nových metod provádění výpočtů, při současném využívání nových materiálů, jakým je například využití kysličníku křemíku, galia atd. Zkoumáme, co všechno je kromě dnes používaného křemíku možné využít a hledáme nové směry.

Máme také výzkumnou skupinu, která se zabývá aplikací fyzikálního kvantově mechanického principu, jenž zatím ještě nebyl pro využití v komerčním prostředí počítačů vůbec diskutován.

Zabýváme se matematikou, zejména pro prediktivní analýzu a umělou inteligenci. Na poli základního výzkumu také zkoumáme polymery jako alternativu křemíku pro samoučící systémy. Někteří lidé to také v určitém smyslu slova nazývají „biologický computing“.

Sociální vědy a prevence následků přírodních katastrof

Při základním výzkumu však nejde jen o inženýrský výzkum a přírodní vědy. Zabýváme se totiž také sociálními vědami, chováním mas. Takový výzkum pomáhá při prevenci následků zemětřesení, tsunami, záplav apod. Právě přírodní katastrofy jsou totiž hrozbou zejména v Japonsku, kde má Fujitsu sídlo. Při prevenci následků přírodních katastrof totiž musíte vědět, jak se lidé chovají, kde a jak se pohybují, co a jak ovlivňuje náladu davu.

Lingvistika a sémantika v sociálních sítích

Studium lingvistiky a analýza sémantiky zase pomáhá rozumět lidskému hovoru a psanému projevu. Pouhá klíčová slova nestačí, nemusejí dávat správný význam. Monitoring sociálních médií a porozumění lidskému projevu, co ve skutečnosti znamená, význam sémantiky, na rozdíl od prostého hledání klíčových slov, může pomoci při prevenci kriminality. Uvedu dva příklady.

Prvním je velmi úspěšný projekt ve spolupráci s policejním oddělením v Tokiu. Společnost Fujitsu jim pomohla se sémantickou analýzou a ve svém výsledku porozumění tweetům na sociálních sítích v průběhu dne. Policisté díky tomu získali vysokou pravděpodobnost předpovědi, ve které části města (Tokio je obrovské město se 14 miliony obyvatel) a kdy (v noci) lze očekávat vyšší kriminalitu, připravit se na ni, a v těchto místech posílit hlídky a svoji přítomnost.

Druhý způsob zkoumání lingvistiky a nasazení analýzy sémantiky byl využit v případě neočekávaných záplavových dešťů, které mohou do měst přinést obrovská množství naplavenin, bahna, které smete vše. Bylo nutno určit, s jakým předstihem je třeba varovat obyvatelstvo. Použili jsme dešťové senzory, historická data, a všechny měřené údaje jsme propojili s reakcí lidí na sociálních sítích. Výsledkem bylo, že úřady zkrátily dobu varování na dvě hodiny namísto původních pěti, v mnohem kratším předstihu než dříve.

Jak toho bylo možno dosáhnout? Použili jsme veškeré dostupné technické prostředky a propojili je s výzkumem chování na sociálních sítích, určili oblasti, které hrozily zasažením záplavami sklepů a přízemí nejdříve, varovali jsme před zdvižení hladiny moře. Panika obyvatelstva se nedá určit exaktním vědeckým výpočtem na základě měření přístroji. Jde o velmi subjektivní záležitost, která je ovlivněna náladou a míněním lidí.

Musíte nasadit metody zkoumání jejich chování a jeho modelování jako další způsob získávání informací k tradičnímu měření fyzikálních veličin pomocí senzorů. Můžete tak vytvořit daleko dokonalejší systém výstrahy, který funguje s mnohem větším předstihem, uzavřít školy, koordinovat dopravu, zamezit jejímu zablokování kvůli zácpám včasným přesměrováním ještě než ke všemu dojde.

Z projektového úhlu pohledu se díky nasazení senzorů, sběru historických dat, satelitnímu snímkování Země, společně s výzkumem lingvistiky, sémantiky a sociálního chování veřejnosti, heuristickým metodám, analýze big data, skýtá široké pole působnosti v mnoha oblastech. Kdybychom tyto metody použili každou samostatně, nebylo by to dostatečné a nedalo by nám to celkový výsledek, jaký máme k dispozici dnes. Když však spojíme všechny tyto metody dohromady, lze vytvořit mnohem lepší analýzu situace. Jen bylo zapotřebí nasadit více disciplín najednou. Provedli jsme ji takto v Japonsku a můžeme ji přenést i jinam.

Takže k vaší otázce, jestli si Fujitsu může nebo musí dovolit základní a aplikovaný výzkum, odpovídám, že prostě musíme. Můžeme si dovolit některé disciplíny, byl bych jako vědec samozřejmě nejradši, kdyby jsme si jich mohli dovolit hodně. Pro mě si jich sice hodně nedopřáváme, avšak rozhodně to je dost na to, aby společnost Fujitsu vystupovala jako respektovaný technologický inovativní výrobce.

Výzkum je velmi vzrušující. Jde o proces, který nazývám průnikem všech aspektů života do byznysu prostřednictvím IT. Disponuje totiž spektrem zdrojů informací, které přispívají k možnosti lépe odhadnout, jak se věci mohou nebo budou odvíjet na základě možných důvodů.

Big data znamená hledání kontextu

Problematice big data už bylo také věnováno hodně prostoru. Lidé žijí v přesvědčení, že big data znamenají obrovské množství dat. Nekritizuji to, mnohdy je tomu ale trochu jinak. Big data nemusí nutně znamenat jejich obrovské množství. Důležité je uvědomit si, že data důležitá pro rozhodování mohou přicházet opět z více různých zdrojů. Ty se pak musejí propojovat dohromady, abychom mohli analyzovat více aspektů a získali širší pohled na zkoumanou věc. Máme tedy nikoliv mnoho dat, ale více zdrojů dat a analytické metody, které je dávají dohromady a drtí z nich informace. Velkou věcí na trhu je, že pokroky v problematice big data nám dávají pohled na kontext, jak se události odehrávají. V minulosti jsme měli k dispozici několik aspektů událostí, avšak bez kontextu.

Analýza big data tedy znamená, že musíte studovat kontext z více, z mnoha zdrojů, to je velká věc k řešení. V mnoha případech skutečně není k dispozici mnoho dat. Jednoduché senzory jich třeba více nedávají, protože jsou velmi primitivní. Některá měří jen několik veličin, některá jen jednu. Vezměme za příklad teplotní čidlo, to odesílá pouhých několik bytů v poměrně dlouhých časových intervalech. Více dat a častěji tomu ani není zapotřebí, protože teplota se příliš často nemění. Budete-li měřit teplotu povrchu nějakého prvku, nebude se přece měnit stokrát za minutu, známe přece fyziku, existuje tepelná setrvačnost. Takže měřit teplotu řekněme jen jednou za minutu je naprosto v pořádku. To ale přece není mnoho dat. Musíme však vzít v úvahu další faktory, a pak už je dat a hlavně zdrojů dat více a máme tady problematiku big data k celkové analýze a řešení kontextu. Je to fascinující příběh, zejména pro matematiky.

Automobil jako příklad analýzy big data

Vezměme za příklad auto. To se porouchá, například mu odešlo něco na motoru. Dříve jsme měli k dispozici nějakou informaci, aspekt chování automobilu, motor se třeba přehřál. Dnes máme informací víc, automobil má senzory. Silnice však už dnes mají senzory mnohde také. Máme k dispozici senzory počasí, deště, teploty. Můžete si přece dát jejich data dohromady a zjistit kontext jak vypadalo celkové prostředí, kde došlo k poruše automobilu, jak vypadaly ostatní systémy. Možná, že problém nebyl primárně v autě, nýbrž ve stavu silnice, na kterou pálilo čtyři hodiny slunce. Možná byla roleta na silnici taková, že frekvence vibrací způsobila poruchu nápravy kola.

Kognitivní analýza

Jedním ze zajímavých trendů dneška je dále tzv. kognitivní analýza. Nemohli jsme se proto nezeptat: Má Fujitsu v záloze něco podobného, jako IBM svůj Watson?
V tomto případě jde o typický příklad kognitivního přístupu k analýze. Nejde podle mne přímo o kognitivní analýzu, tato definice je trochu matoucí a není zcela přesná. Je třeba se podívat, co „kognitivní“ vlastně znamená. Rozhodně nechci tuto otázku shazovat, mám k této oblasti velký respekt. Záležitosti, které vyžadují k řešení velká množství dat, vyžadují dobré algoritmy, což se blíží umělé samoučící inteligenci. Do projektů umělé inteligence proto Fujitsu také investuje, a sice z pohledu algoritmizace řešení problémů. Nemáme zatím pouze jedno, a to produkt, jenž bychom nabízeli jako v současné době IBM, která má v tomto ohledu unikátní pozici na trhu. Fujitsu však má k dispozici řešení pro internet, mobilní internet, internet věcí, analýzu dat ze senzorů, big data a algoritmy, které je řeší.

Samoučící systémy a jejich úskalí

Ve Fujitsu postupujeme směrem k algoritmizaci ekonomiky, lepšího řešení skladů, umělé inteligence. To jsou směry, kterými se dnes ubírá každý. Přístup Fujitsu tomu odpovídá. Avšak umělá inteligence a samoučící systémy mají podle mne svá omezení. V mnoha případech se něco naučí, ale nevíme vlastně co a na jakém základě. Nevíme pak, co se vlastně děje. V některých případech se samoučící systémy mohou něco „správně“ naučit z nesprávných důvodů. Výsledky pak mohou být dobré po velmi dlouhou dobu, ale na nesprávném základě.

Příběh jedné umělé ne-inteligence

Jako příklad mohu uvést projekt komplexního systému neuronových sítí, na kterém jsem pracoval před nějakými 20 lety. Vypadá to jako anekdota, ale jde o ilustrativní příběh, který se skutečně stal. Součástí projektu bylo vytvořit třídičku vyrobených součástek na dobré a nevyhovující. Využívala kamery, které sledovaly součástky přicházející na pásu. Systém se je postupně učil rozpoznávat a zakrátko byl velmi, velmi úspěšný. V laboratoři to šlo skvěle, v ostrém nasazení však byla úspěšnost padesátiprocentní, jako když si hodíte mincí, prostě propadák. Nakonec se zjistilo, že systém se naučil rozpoznávat „kvalitu“ součástek tak, jak mu přicházely po pásu, kam jsme mu je servírovali, aby je na jeho konci stroj třídil. Z jedné strany jsme sázeli na pás součástky dobré, z druhé strany špatné. Jedny prakticky trvale směřovaly šikmo nalevo, jedny šikmo napravo. Systém vzal z kamer za směrodatný údaj o této orientaci, a když pak součástky přicházely v ostrém provozu na pás také z automatického podavače, který je na něj sázel s libovolnou orientací, bylo po inteligenci.

Druhý příběh je také o třídění součástek. Tentokrát od výrobce, který jich příliš mnoho špatných nevyráběl. Třídička byla umístěná u okna, kam svítilo slunce. Když se v průběhu dnů měnilo barevné spektrum světla, což lidské oko nepostřehlo, ale citlivá kamera ano, přesnost třídičky se s blednoucími barvami v horším osvětlení měnila také.

Umělá inteligence a umělý instinkt

A může vypadat druhá tvář umělé inteligence. Samoučící systémy mají jeden problém, a sice co se vlastně naučily. Tohle je třeba neustále hlídat.

V každém případě je však umělá inteligence budoucností ovládání průmyslových systémů. Stane-li se „tamto“, musí se udělat „toto“, to je docela jednoduché. Zejména však půjde o využívání zkušeností, vybudovat instinktivní cítění, i to bude jednou možné.

Válka procesorů RISC a CISC

Fujitsu využívá platformu Intel x86 a přitom stále vyrábí RISCové procesory Sparc. Jaký má tedy Dr. Joseph Reger pohled na problematiku procesorových platforem RISC (RISC = Reduced Instruction Set Code, s omezenou sadou instrukcí) a CISC (Complex Instruction Set Code, s tzv. neomezenou sadou instrukcí)?

Původní procesorový návrh dosáhl svého horizontu někdy v 80. letech minulého století, kdy muselo přijít něco nového. Rostl počet instrukcí, rostla pracovní frekvence a počet tranzistorů na čipu. Dekódování přicházejícího bitového toku a nalezení správné instrukce k vykonání a přiřazení příslušných dat bylo stále těžší. Instrukce byly nejprve osmibitové, pak šestnáctibitové a více, stálo to stále více strojového času. Proto došlo k rozhodnutí, že RISCový procesor bude mít maximálně 256 instrukcí a ne více, že slova budou mít konstantní délku, že se nebude rozhodovat o tom, co půjde dovnitř procesoru, jeho architektura byla zjednodušena, a tak RISCy překonaly tehdejší procesory. Tak přišly na svět procesory MIPS od SGI, SPARC od Sun Microsystems, Digital Aplha, IBM POWER a řada dalších, menších platforem.

Pak ale Intel řekl, že to není dobré, a přišel s vlastní architekturou CISC. Nezabýval se jen vlastním dekódováním instrukcí, ale všemi těmi predikcemi, co vlastně má instrukce udělat, pipeliningem (řazením instrukcí), a podívejte se, co se všechno do architektury x86 z RISCových procesorů dostalo. Je to důkaz, že architektura je sice důležitá, ale musíte mít také na paměti, že důležitý byl vždy výkon.

Přišly procesory Intel x86 Xeon a ARM. Na konci této války už ale nejde o to, zda půjde o RISC nebo CISC, ani o výkon. Jde o novou hodnotovou veličinu, a sice o spotřebovanou energii procesorem. Dnes už se proto neptáme na samotný výpočetní výkon procesoru, ale na poměr k energii, kterou k tomuto výkonu spotřebuje na kilowatt.

V současné době se proto začínáme také ptát, kolik toho s nárůstem výkonu spotřebuje ARM, který je jinak velmi dobře navržen. Měrná spotřeba procesorů Intel šla dolů. Pokud tedy bude mít ARM vyšší výkon, jakou bude mít spotřebu energie potom? Stále je ještě výkonově a spotřebou pod Intelem, který má k dispozici ještě nějakou únikovou cestu. RISC ale nemá vyřešenou otázku, jak dosáhnout dostatečného a srovnatelného měrného výkonu s porovnatelnou architekturou pro větší systémy. Mohu předpovědět, co se s ARMem stane. Bude velmi důležitý pro mobilní zařízení s nízkou spotřebou.

I nadále bude Fujitsu vyrábět systémy i s procesory Intel x86, tvoří většinu trhu. Stále se ale podle mne budou u Fujitsu stavět i velké systémy s procesory SPARC, na které má naše společnost licenci, a jsou na trhu Unixu velmi respektované. Stále se také budou vyrábět grafické systémy s RISCovými procesory, které mají skvělé benchmarky. Jestli ale někdy nějak tento svět osloví procesory ARM, uvidíme…

Exit mobile version