Mozkové implantáty? K manipulaci stačí telefon, je třeba chránit mysl lidí, říká CTO Avastu Michal Pěchouček

Iva BrejlováIva Brejlová

pechoucek_1Rozhovor

Foto: Avast

Michal Pěchouček, CTO Avastu

0Zobrazit komentáře

Staví na stranu dobra umělou inteligenci, která by se měla popasovat s tou na straně zla, čímž má posunout na novou úroveň nejen Avast, kde druhým rokem působí jako technický ředitel. Jeho ambice jsou totiž větší – vidí svět v jiném časovém horizontu než mnozí startupisté. Michal Pěchouček je přední český odborník na IT a umělou inteligenci, který pracoval i například pro NASA či americkou armádu.

V roce 2015 byl zařazen na seznam výjimečných inovátorů New Europe 100, před více než dvaceti lety založil a dosud vede Centrum umělé inteligence na ČVUT a na škole doteď také aktivně působí. Spoluzaložil několik firem, jako jsou AgentFly nebo Blindspot. Tu zřejmě nejznámější, Cognitive Security, za desítky milionů korun koupila společnost Cisco, kde pak několik let působil.

Je ale aktivní i mimo firemní byznys – spoluzaložil iniciativu Prg.ai, kde se snaží aktivisticky podpořit vědce, technology, podnikatele, inovátory či edukátory v oblasti umělé inteligence a nechat je spolupracovat s městem Praha. „Chceme ukázat, že rozvoj umělé inteligence se v ekosystému Prahy také může dít zespoda,“ popisuje. Pěchouček působí i na investorské straně jako poradce v Evolution Equity, kde se potkal s investorem a bývalým šéfem AVG Karlem Oblukem.

Pod Pěchoučkovým technologickým vedením Avast vyvíjí nové technologie a vychovává novou generaci expertů, třeba i díky spolupráci s univerzitami, jako jsou Stanford, Berkeley, King’s College London i ČVUT. Český antivirový obr se za jeho pomoci chce dívat do budoucnosti – zkrátit čas mezi tím, kdy se objeví nová hrozba, do té chvíle, kdy se na ni Avast dokáže adaptovat a blokovat ji.

Na to používá řadu technologií i přístupů, třeba i teorii her nebo umělou inteligenci. „Máme ohromný vzorek dat – 435 milionů uživatelů – a vnímáme, jaké jsou trendy v kyberbezpečnosti, vidíme každodenní masu útoků. A víme, že jako obránci musíme umět správně používat umělou inteligenci, abychom v budoucnu uměli udržet nadvládu nad útočníky,“ přibližuje Michal Pěchouček témata, o kterých se rozpovídal ve velkém rozhovoru pro CzechCrunch.

V jednom z vašich starších rozhovorů mě nejvíc zaujalo, že jste prý chtěl pochopit (případně připravit) mentální antivirus, abyste byl připraven na dobu, kdy Elon Musk vysoustruží mozkové implantáty. To je jeden z vašich dlouhodobých cílů?
Nevím, za jak dlouho Elon Musk vysoustruží čipy do mozku. Vždy jsem si myslel, že za dlouho, protože je to taková blbost, že bych to vlastně ani nechtěl zažít. Ale Musk patří mezi ty lidi, které napadne nějaká blbost a ona se pak stane. Jako technologa si Muska vážím a nepodceňuji ho.

Jestli to bude za 5 nebo 15 let, nevím, určitě v tom bude hrát roli regulátor, který to jen tak neumožní. A pak společenská přijatelnost. Podobně jako když Google vyvinul Google Glass, ukázalo se, že je poněkud neetické je používat. Pak společnost přibrzdila investici do vývoje chytrých brýlí, až se nakonec přestalo vyrábět úplně. Může se stát, že firma něco takového nedovolí Muskovi prosadit, ale to neznamená, že se mu nepodaří to vymyslet.

michal-pechoucek

Foto: Avast

Michal Pěchouček, odborník na AI, kyberbezpečnost a technický ředitel Avastu

Tedy jakmile Musk bude mít takové čipy, bude potřeba na ně mít antivirus?
To je ta paralela, ale můj argument je ten, že je to ve skutečnosti nerelevantní. Protože míra toho, jak jsme manipulováni přes telefon, je srovnatelná s tím, jak bychom byli manipulováni přes ony mozkové implantáty. Je třeba chránit mysl lidí, aby ji nikdo nemohl zahltit nebezpečnými signály nebo donutit lidi dělat něco, co nechtějí.

Už dnes nás Facebook může přesvědčit k tomu, abychom šli vypalovat Kapitol. Je vidět, že už se něco takového dá zařídit. Troufám si tvrdit, že problém takového mentálního antiviru je už dnes a měli bychom do toho investovat a řešit to.

Jak nejlépe?
Tam jsou dvě dimenze: umět lidem pomáhat v kybernetické hygieně, pomáhat zvyšovat si bezpečí, nesdílet privátní údaje, neposílat nikam své fotky, když nemusíte, neposílat osobní údaje… Ztížit internetu, aby se o vás mohl naučit něco, čím by na vás mohl útočit. Druhým velkým prostorem je bránit se nejen před normálními kriminálními živly, útočníky, ale i před legálními živly. A to jsou sociální sítě, velké korporace, skupiny, které mají zájem na tom, abychom se nějak chovali, někam jezdili, lajkovali a repostovali zprávy, zvyšovali napětí, vzrušení v určité komunitě. To se už dnes děje a tomu chce Avast také bránit.

Je to sice zatím v plenkách, avšak patříme mezi několik pracovišť na světě, které se zabývají tím, jak dodat lidem co možná nejvíce informací, aby si dokázali sami ověřit, jestli zpráva, kterou čtou, je pravdivá, nebo ne. Chceme tím přispět ve svém důsledku ke snížení počtu lží na internetu. A to je stejné jako s antivirem. Kdybych měl antivirus, který bude vypínat manipulativní nebo nepravdivé zprávy, lidem moc nepomůžu. Hlavně nechci uživatele manipulovat já tím, že budu říkat, co je zmanipulované. To nechci dělat ani já, ani Avast. Chci vymýšlet a připravovat technologie, které dají lidem víc informací, aby se sami mohli rozhodnout, jestli zprávě věřit, nebo ne.

„Chci pomáhat uživatelům, aby si sami dělali vlastní názor. Nechci ovšem budovat ministerstvo pravdy.“

Je cestou zobrazovat varování, které se na sociálních sítích začalo objevovat a hodně se o něm mluvilo právě ve spojitosti s Trumpem, tedy určitý přílepek ke zprávám, že je možné, že jsou nepravdivé?
Způsobů je hodně. Avast má svůj vlastní prohlížeč, který používá spousta lidí. V něm pilotujeme produkt, kde bychom chtěli udělat agregátor různých fake news analyzérů. Je tu hodně analyzérů, které dělají spoustu práce, ale každý jinak. My chceme říct: podívejte, většina analyzérů o této zprávě říká něco varovného. To je příklad neintruzivní a relativně objektivní pomoci.

Spolupracujeme s profesorem Hany Faridem na univerzitě v Berkeley a podílíme se na financování jeho výzkumu. Spolupracuje s námi na tom, jak detekovat, jestli se infrastruktura, na které se zpráva vyskytuje, někdy v minulosti použila jako někým jiným uznaný způsob pro šíření manipulativní zprávy. Dá se počítat s tím, že servery jako The Financial Times mají extrémně nízkou možnost, že přes ně falešná zpráva šla.

Existují ale takové servery, o nichž je veřejně známo, že přes ně v minulosti nějaké procento klamných zpráv prošlo. Což neříká nic o té konkrétní, kterou právě uživatel čte. Jen upozorňuje, že server má nějakou historii. Je více takových metod na základě matematiky, statistiky, umělé inteligence, které můžou dát uživateli stopy, jež doposud neměl. To je to, co by technologické firmy měly dělat.

Myslíte si, že o to lidé vůbec mají zájem? Některé skupiny mají na první pohled poměrně zřejmou agendu, a přesto uživatele lákají.
Máme zpětnou vazbu, že o to zájem je. Spousta lidí by ráda netrávila čas tím, že budou muset stále ověřovat informace. Lidé si chtějí zjednodušovat život a pomoc v tom přebírání se mezi zprávami. Ale já necílím na to, abych změnil názory útočníků na Kapitol. Ty už mají své názory pevné. Věřím však tomu, že je tu ohromná skupina lidí, kteří se pohybují nevědomky mezi různými bublinami na sociálních sítích a vlastně nevědí proč.

Kdyby tato skupina dostala víc informací, ten pohyb by nebyl tak velký. Kupříkladu když má někdo rád Harley-Davidson a stále si motorky prohlíží, můžou se k němu snadno dostat posty lidí, kteří také mají rádi motorky, ale také například podporují násilí. A přitom on s násilím nechce mít nic společného. Ještě tenčí hrana je mezi láskou k české kultuře, nadšení pro historii a českou národní identitu na jedné straně a nacionalismem na straně druhé.

Kdyby Facebook dokázal uživatelům jasně vysvětlovat, jak se mezi takovými tzv. echo-chambers pohybovat transparentním způsobem, lidé by si to mohli uvědomit a mohli by tomu vědomě zabránit. A to je něco, co bych chtěl dokázat. Chci pomoct těm, kteří si názory ještě formují.

avast_threat_labs_3

Foto: Avast

Laboratoře kybernetických hrozeb v Avastu

Vidíte to tak, že tedy není třeba odstraňovat takové šíření extrémních zpráv?
Aby nedošlo k mýlce – takové zprávy velmi odsuzuji a věnuji spoustu své profesní kreativity tomu, abych zabránil šíření extremistických zpráv. Ale chci to dělat způsobem, že hodlám pomáhat uživatelům, aby si sami dělali vlastní názor. Dodávat víc informací, aby uživatelé věděli věci, které dnes nevědí. Nechci ovšem budovat ministerstvo pravdy.

To je přístup, který neškáluje, nedá se dlouhodobě korektně udržet. Navíc způsob psaní manipulativní zprávy je velmi sofistikovaný. Manipulace se schová ve velkém množství pravdivé informace. Dokonce se může manipulace celá zabalit do všech pravdivých informací. A stejně manipuluje. Pro umělou inteligenci je tedy detekce manipulativních zpráv stále velký problém.

Jak dlouho jste od chvíle, kdy budete uživatelům umět takto poskytovat informace?
Je to překvapivě ještě dlouhá doba. Technologicky je takový úkol netriviální. Bude v tom hrát velkou roli regulátor, který bude některé věci možná omezovat. Bude v tom hrát velkou roli nálada uživatelů. Stačí, když si řeknou, že nějakou sociální síť přestanou používat, a ona zkrachuje. Může se stát, že Amazon vypne servery nějaké síti, protože se mu nelíbí, co ta síť propaguje, jako se to stalo před pár týdny (Amazon vypnul v reakci na dění v USA servery sociální síti Parler – pozn. red.).

Neočekávaných věcí, co se mohou stát, je spousta. Je to práce na delší dobu. A ještě navíc to podle mě nemůže vyřešit jedna konkrétní firma. Je to na spolupráci mezi akademickým sektorem, menšími technologickými firmami i giganty.

„Ultimátní cíl pro mě osobně je chránit bezpečí a privátnost lidí tak, aby na internetu rostla jejich svoboda.“

O své práci v Avastu jste mimo jiné řekl: „Vlastně se jen připravujeme na válku umělé inteligence proti umělé inteligenci.“ Trvá to a posunuli jste se?
Je to tak, AI proti AI. A je to velký a těžký problém. Když si uvědomíte, že autonomní auto se vyvíjelo 20 let, než fungovalo tak, že se mohlo pustit na ulici, proti tomu je umělá inteligence proti umělé inteligenci v kyberbezpečnosti opravdu čerstvý obor. Začal se vyvíjet před pěti lety. Nejsou tu zatím žádné cybersecurity deepmindy, které by psaly o tom, že mají ten problém vyřešený. My se snažíme být prvními průkopníky masivního použití umělé inteligence proti útokům umělé inteligence. Ale máme spoustu dalších věcí na starosti.

Pomáháme i v oblasti privátnosti. Pomáháme zajistit, že protokoly, které používáme, jsou odolné vůči rozšifrování v okamžiku nástupu kvantových počítačů. Máme tzv. postkvantové protokoly, které budou robustní i poté, co kvantové počítače budou lámat šifry. Zabýváme se problémy v oblasti identity. Pro Avast je to nové, důležité téma, chceme bránit uživatele nejen přes jeho přístroje, počítače, síť, ale hlavně přes jeho identitu. Rozumět tomu, jaká je identita člověka na internetu, jak ji chránit. V tomto prostoru inovujeme. Ultimátní cíl pro mě osobně je chránit bezpečí a privátnost lidí tak, aby na internetu rostla jejich svoboda.

Identita na internetu v jakém smyslu?
Zjednodušeně je identita uživatelské jméno a heslo. Tím se dostanete na Facebook, můžete tím věci měnit, číst, postovat… Když se vám někdo nabourá do účtu, ukradl vám identitu. Snažíme se zařídit, aby se lidé nemuseli bát, že někdo ukradne identitu a začne ji zneužívat. Může to dělat kvůli penězům, ale i proto, že bude manipulovat skrze ukradenou identitu jiné uživatele internetu. To je velké téma. V minulosti byla ukradena identita i některým politikům a lidé si tak mysleli, že říkají něco, co nikdy neřekli.

Co s tím?
Máme různé nástroje, jedním z nich je technologie, kterou pomáháme lidem si automatizovat práci s hesly, aby je neměli slabá. Slabá hesla jsou jeden z těch velkých vektorů, přes který se útočí, mnohdy i s pomocí umělé inteligence. Když například budou útočníci vědět o nějakém politikovi nevzdělaném v oblasti kyberbezpečnosti, jak se jmenují jeho děti, pes, kde byl na dovolené, můžou začít generovat hesla. Takto nedávno někdo hacknul účet Trumpa na Twitteru. Heslo bylo „maga2020“ (zkratka volebního hesla Make America Great Again – pozn. red.).

michal-pechoucek

Foto: ČVUT

Michal Pěchouček

Máte zkušenosti z působení ve všech sektorech spojených s technologiemi. S kolegy zmiňujete třeba to, že problémem rozvoje technologií bývá krátkodobost investičního horizontu. Vy máte za sebou naopak velké technologické nápady a úspěchy. Jak dlouhý takový horizont tedy máte vy?
Je pravda, že úspěch veleúspěšných měst a regionů v umělé inteligenci je dán právě dlouhým investičním horizontem. My ho v Česku máme krátký. V Praze ho nejdelší mají vědci. A já jsem vědec. I když teď mám pozici CTO. V době, kdy jsem stavěl s Martinem Rehákem úplně první startup – a první startupy jsou plné chyb –, uspěli jsme proto, že jsme ty chyby vykompenzovali myšlenkou s velmi dlouhým investičním horizontem.

V roce 2008 jsme přišli s myšlenkou použití strojového učení v kyberbezpečnosti (z té pak vznikla společnost Cognitive Security – pozn. red.). Byla to doba, kdy to nikdo nebral vážně, nikoho to nebralo. Ale my jsme byli vědci. Věděli jsme, že obě aplikační technologie mají něco společného. Že je možné použít potenciál metody na rozpoznávání obrázků pro rozpoznávání malware a anomálii v síťovém provozu. A ukázalo se, že to funguje.

allister1

Přečtěte si takéPro někoho je otužování jen cesta, jak být cool. Jiní si tím optimalizují své zdraví, říká biohackerka Veronika AllisterPro někoho je otužování jen cesta, jak být cool. Jiní si tím optimalizují své zdraví, říká biohackerka Veronika Allister

Museli jsme ale mít myšlenku, jejíž horizont měl třeba osm let. Dokázal nám získat kompetitivní výhodu. Ač jsme nebyli slavní a neměli za sebou velké investory, vyvinuli jsme něco, co nikdo jiný neměl. A chtěl bych, aby takové možnosti měli i další inovátoři i v Česku. Aby tu investiční horizont byl alespoň šest nebo třeba deset let. U startupů, které se svými aplikacemi musejí vydělávat do roka a do dne, ta inovace není.

Měl jste tedy představu, kde až skončí firma Cognitive Security, kterou jste založili s Martinem Rehákem? Tušil jste, že by ji brzy za desítky milionů mohla koupit nadnárodní firma Cisco a jak ji lidé budou používat?
Je to o tom, že když máte vize, zajímá vás spíš, kde skončí vize než ta konkrétní firma. Mě zajímalo, kde skončí myšlenka používání umělé inteligence v detekci nebezpečných anomálii v síťovém provozu. Způsob, jakým jsem k tomu já, Martin Rehák a další spolupracovníci dokázali přispět, má nějakou svou trajektorii. Teď se rozvíjí v rámci Cisca.

Já jsem Cognitive Security ve strukturách Cisco řídil ještě tři roky. Dnes, sedm let poté, má technologie Cognitive Security desítky milionů uživatelů po celém světě. Vyvinula se před deseti lety, takže cíl je splněn. Chtěl jsem mít desítky milionů uživatelů, a to se podařilo. To, že velkou část trajektorie si odpracoval tým v rámci Cisca, je pravda. Ale mně víc šlo o to, aby co nejvíce lidí používalo náš nápad. V tom tým uspěl a já jsem na to pyšný.

Diskuze (0)

Novinka

Anonym