👋 Pokrok v AI — newsletter č. 6
Další vydání newsletteru Pokrok v AI je tu a tentokrát přináší především novinky ze světa politiky a byznysu, ať už jde o nové investice do AI společností či obavy týkající se dopadu AI na volby.
Vítejte ve šestém vydání našeho newsletteru Pokrok v AI, ve kterém shrnujeme nejnovější poznatky a vývoj v oblasti používání umělé inteligence (AI), strojového učení (ML) a AI policy a regulace.
🎨 Multimodální ChatGPT
OpenAI představila multimodální ChatGPT, které umí obrázky přijímat jak na vstupu, tak je generovat i jako výstup (pomocí DALL·E 3, o kterém jsme již psali minule). Společně s Google Bard jde o další z řady veřejně dostupných velkých jazykových modelů, jehož schopnosti se rozšiřují do modalit mimo čistý text. To umožňuje uživateli úplně nový způsob interakce s AI, v rámci které může odkazovat k obrázkům, grafům, plánkům nebo nechávat obdobná média modelem generovat a skrze interaktivní cyklus feedbacku mezi uživatelem a AI vše upravovat a zlepšovat.
Kromě zlepšujících se schopností ale obrázkový vstup otevírá AI také novým typům útoků. Jeden, který mě hodně zaujal, využil GPT-4(V) k přečtení CAPTCHA kódu tím, že model (velice neuměle!) přesvědčil, že jde o tajný kód od jeho mrtvé babičky ve zlatém přívěšku, který mu dala.
💰 Anthropic má dalších (až) $4B od Amazonu
Anthropic — společnost stojící za modelem Claude-2, který je v současné době pravděpodobně jediným porovnatelně chytrým modelem k OpenAI GPT-4 — získal dalších (up to) $4B (přibližně 92 miliard Kč, což je více, než např. jmění Andreje Babiše nebo Donalda Trumpa) od Amazonu a přednostní přístup k jejich novému trénovacímu a inferenčnímu hardwaru. Tento krok je dalším vývojem postupného párování velkých technologických společností s cloudovými službami a externích AI laboratoří, které trénují velké modely. Situace teď vypadá takto:
Amazon Web Services (AWS) 🤝 Anthropic
Microsoft Azure 🤝 OpenAI
Google Cloud Platform (GCP) 🤝 Google DeepMind
Zajímavým aspektem této investice od Amazonu je, že Anthropic 3. února letošního roku již oznámil partnerství s jiným cloudovým providerem, s Google Cloud, a to v hodnotě $300M. Zdá se ale, že požadavky na výpočetní výkon nebo kvalita služeb od Googlu nestačila k naplnění dlouhodobých ambicí Anthropicu, který v rámci následujících18 měsíců chce natrénovat model, kterému zatím veřejně říkají Claude-Next s rozpočtem na výpočetní výkon kolem $1B a schopnostmi 10x převyšujícími dnešní nejchytřejší modely.
⚛️ Microsoft plánuje jadernou budoucnost pro AI
Microsoft Cloud hledá nové inženýry/inženýrky a vědce/vědkyně pro svůj vlastní program malých jaderných reaktorů, kterými chce poskytovat elektřinu další generaci nových datových center, jejichž rolí bude z velké části trénink a nasazení umělé inteligence. Popis pozic zmiňuje zodpovědnost za “maturing and implementing a global small modular reactor (SMR) and microreactor energy strategy”, tedy za zlepšování a implementaci globální strategie Microsoftu v oblasti malých modulárních jaderných reaktorů. Posledních několik let jsou technologičtí giganti stále častěji nuceni zkoumat možné cesty k ukojení své energetické poptávky pomocí spekulativních nových technologií. Google například před pěti lety investoval do startupu Tri Alpha Energy, který se zabývá jadernou fúzí a letos Microsoft podepsal dohodu o budoucím nákupu energie se fúzním startupem Helion.
Dobrý článek shrnující některé z důvodů, proč ještě komerční a škálovatelnou jadernou fúzi nemáme, vydal na svém substacku Astral Codex Ten Scott Alexander jako externě napsanou recenzi knihy The Future Of Fusion Energy. Jak je pro jeho blog typické, kritika a push-back v komentářích pod článkem je taktéž vysoce informačně hodnotná. Tldr ale pro mě bylo, že do jaderné fúze jsme jako civilizace nikdy neinvestovali moc penež, takže očekávatelně k ničemu velkému nedošlo.
🇫🇷 Francie nadějí EU v AI?
EU obecně výrazně zaostává za USA ve vývoji umělé inteligence, byť hodně Evropanů má problém si toto připustit. Je to bohužel nepříjemná pravda — starý kontinent v mnoha oblastech klíčových pro budoucnost a prosperitu ztratil motivaci, vůli a zápal a čeká nás tak pravděpodobně, minimálně v oblasti umělé inteligence, závislost na amerických výsledcích. O to překvapivěji a úžasněji působí nedávné výrazné snahy Francie vybudovat domácí AI ekosystém.
Francouzský miliardář Xavier Niel se rozhodl investovat €200M do umělé inteligence. Má v plánu podpořit výzkumnou laboratoř, která by rozbujela francouzský ekosystém a mohla konkurovat OpenAI v USA. €200M není moc — například Anthropic, největší rival OpenAI a moje bývalé působiště — vybral před pár dny od Amazonu $4B, což je €3800M, tedy přibližně skoro 20x tolik, co Niel slibuje, ale je to dobrý začátek!
Mistral AI, nový francouzský AI start up, mezitím vybral $113M seed round při valuaci $260M (což je netypicky vysoký poměr společnosti, kterou si za svoji investici odnesli) a pouhé tři měsíce od začátku už publikoval své nové open source jazykové modely, které poráží Meta Llama-2. Ukazuje to, že je talent je pořád do velké míry hlavní bottleneck (překážka) pro rozvoj AI! Tvůrci nových modelů Mistral AI jsou totiž ti samí výzkumníci, kteří v Meta původní model Llama postavili před tím, než odešli za světlejšími zítřky a větším upside to vlastního startupu.
🇬🇧 Britský bod zlomu
Velká Británie je aktivní jak ve výzkumu umělé inteligence tak i v politické reakci na její rapidně se zvyšující schopnosti v hodně ohledech napřed před Evropskou Unií a na podobné úrovni se Spojenými státy americkými. V novém policy paperu Tipping Point: On the Edge of Superintelligence (Bod zlomu: Na kraji superinteligence), který vydal Adam Smith Institute, dávají autoři Connor Axiotes a Eddie Bolland 30 policy doporučení a zároveň kritizují některé aktuální britské plány, jako je například BritGPT — plán natrénovat domácí verzi, který by byla ekvivalentem nejlepších zahraničních jazykových modelů. Mezi jejich doporučení naopak patří například:
Air-gapping jaderných zbrání — velice rozumné doporučení nemít apokalypsu spouštějící arzenál vodíkových bomb připojený k internetu.
Ustanovení Velké Britské ceny za bezpečnost AI.
Podmínky pro API přístup k AI postavený na rizicích.
Změna developerských pravidel, která by umožnila stavbu v takzvaných green belts — oblastech “zeleně”, které obklopují velká i malá britská města a která dusí jejich rozvoj a nepřímo tak přispívá k vyšší cenně ubytování.
Tvorba britské výpočetní rezervy — superpočítače, které by byly k dispozici akademikům, kteří by podle doporučení měli být větší součástí práce na bezpečnosti AI
Jak tento policy paper i chystaný summit zaměřený na bezpečnost AI, který jsme zmiňovali v předminulém vydání, ukazují, Británie intenzivně usiluje o vedoucí roli v oblasti umělé inteligence a má k tomu dobře našlápnuto, byť má samozřejmě určité rezervy. Svou ambici ale jasně potvrdila i na Valném shromáždění OSN (UNGA), které se konalo na konci září, když tam Vicepremiér Oliver Dowden prohlásil, že Británie má ,,základy pro udělání umělé inteligence úspěšnou a bezpečnou” a je odhodlána být v první linii mezinárodní odpovědi na růst umělé inteligence. Dění ve Spojeném království v této oblasti tak určitě budeme nadále pozorně sledovat.
🗳️ Volební šílenství v éře AI
Před volbami na Slovensku eurokomisařka Věra Jourová prohlásila, že tyto volby budou testem úspěchu snah internetových gigantů odstraňovat nezákonný obsah, k čemuž je zavazuje nová evropská legislativa – Akt o digitálních službách (DSA), ale i dobrovolný Posílený kodex zásad boje proti dezinformacím. Výsledky voleb už známe a závěry o úspěchu těchto snah si každý z nás může udělat sám. Vzhledem k tomu, že v nadcházejícím roce svět čeká více než 50 volebních klání, vzrůstají obavy týkající se ovlivňování voleb (nejen) nástroji založenými na AI.
Nově zveřejněný report organizace Freedom House upozorňuje, že svoboda na internetu třináctý rok v řadě klesá a AI vládám může pomoct k další (a úspěšnější) online cenzuře. Zároveň generativní AI hrozí posílením online dezinformačních kampaní, které už nyní manipulují rozhodování voličů. K státní propagandě a šíření fake news AI nástroje používá například Venezuela, jak zmiňuje článek v deníku El País. Opodstatněně tak vzrůstají obavy. Jak zmiňuje brífink Výzkumné služby Evropského parlamentu (EPRS), v roce 2026 by mohlo být až 96 % obsahu online uměle generováno, což znamená potenciální ohrožení pro demokratické procesy jako jsou volby.
V reakci na tento vývoj byla v americkém Senátu představena nová legislativa s cílem zakázat šíření klamného obsahu zobrazujícího federální kandidáty v politických reklamách ještě před volbami v roce 2024. V minulém vydání jsme zmiňovali, že při regulaci AI by se nemělo hledět jen na existenciální dlouhodobá rizika, ale i na aktuální akutní dopady AI a na to se nyní evidentně americký Senát snaží zaměřit. K tomu ostatně vyzývá i Freedom House ve svém reportu, protože AI ovlivňuje svobodu na internetu už teď! Pro vyváženost je ale nutné podotknout, že již zmiňovaný brífink EPRS vyzdvihuje i možné pozitivní přínosy AI pro rozvoj demokratických procesů, jako je lepší porozumění pocitům elektorátu a důkladnější zohlednění perspektiv občanů.
⚡Rychlé odkazy
Vzhledem k aktuální absenci relevantní národní či světové AI regulace si některé společnosti vytvářejí vlastní regulační mechanismy. Tato seberegulace je jistě problematická, třeba protože AI společnosti stále mají především vlastní komerční zájmy a rizika tak rozhodně neurčují objektivně… V budoucích vydáních se o tomto tématu jistě ještě více rozepíšeme, ale prozatím si tady můžete přečíst více o nové “zodpovědné škálovací politice” společnosti Anthropic.
Doktorand a výzkumník Quintin Pope napsal skvělou kritiku pozice “We’re all going to die” [because of AI], kterou je známy hlavně výzkumník, blogger a praotec Bay Area racionalismu Eliezer Yudkowsky.
💵 Děkujeme naše prvnímu, dobrovolnému a nejúžasnějšímu platícímu předplatiteli. Pokud chcete finančně podpořit naší práci, můžete přejít z Free na Paid subscription.
Líbilo se vám šesté vydání newsletteru Pokrok v AI? Odebírejte ho přímo do vaší emailové schránky a podpořte tím naši práci!
Můžete ho také sdílet s přáteli na sociálních sítích.
Napsali Stanislav a Kristina Fort.
Super newsletter! Dík za link na post Quintina Popa,v něčem podobný seznam napsal taky Paul Christiano: https://www.lesswrong.com/posts/CoZhXrhpQxpy9xw9y/where-i-agree-and-disagree-with-eliezer#fnrefh5ezxhd0an