0:05 Počúvate
0:06 357 diel podcastu Klik denníka SME.
0:09 Volám sa Ondrej Podstupka. Ja som Martin
0:12 Hodás a každú druhú sobotu rozprávame o
0:16 najdôležitejších udalostiach sa
0:19 technológií, médií, umelej inteligencia
0:21 a sociálnych. Nepofiluje. To to som mal
0:22 ja prečítanie. Áno, áno, to sme sa
0:24 pokúsili zmeniť intro, ale dopadlo to
0:26 ako vždy.
0:28 Eh, ale eh, možno o dva týždne. Ale a
0:32 teraz samozrejme každú druhú sobotu
0:33 zatiaľ. Ale o čom si teda budeme
0:35 rozprávať? Eh, s Martinom si prejdeme
0:37 novinky, ktoré oznámil Google a
0:39 Microsoft na svojich veľkých
0:41 developerských konferenciách. Také to
0:42 AI, AI a zase AI, ale vyšli tri ako
0:46 pomerne zásadné rozhovory a jedna teda
0:48 dve dva zásadné rozhovory a jedna
0:50 analýza, ktorá akože to
0:52 zhrn. Zaujímavé. Prejdeme si. Martin má
0:55 najnovšie dobrodružstvá Elona Muska vo
0:58 vesmíre a sociálnych sieťach a ruských
1:00 vplyvových operáciách.
1:03 A pozastavíme sa nad tým, že prečo
1:05 Johnny Ivoví ľudia ešte stále dávajú
1:07 miliardy dolárov za vlastne nikto nevie
1:10 úplne úplne čo. No ale je z toho veľmi
1:12 pekná fotka. Aspoň tak tak k tomu sa k
1:15 tomu sa zastavíme. Tiež stojí. Hej hej
1:18 akože za tú fotku mne to za tú fotku
1:21 stálo. Kto má fotku za
1:24 iba Johnny? Dobre, poďme na to.
1:33 [Hudba]
1:36 Tento týždeň, teda v posledných dvoch
1:38 týždňoch zbehli dve veľké developerské
1:41 konferencie. Vždy je to niekde na konci
1:43 mája. Microsoft má veľkú veľkú
1:46 konferenciu Build. Ona je naozaj taká,
1:48 že veľmi vývojárska, ale na jej úvode
1:51 vždy má Satiana prezentáciu. Aj povedia,
1:54 čo všetko robia a majú nejaký akoby taký
1:56 taký akože výhľad do budúceho roka.
1:59 Veľmi podobnú vec mám Google, Google IO
2:01 sa to volá a Google to robí oveľa tak
2:04 akože produktovo. Google to poňal pred
2:06 pár rokmi a už to robí akoby oznámenie
2:09 vecí, ktoré budú tento rok a potom je tá
2:12 developerská konferencia. Ale ten prvý
2:14 deň, ten otvárak je proste, že sa eh
2:17 Sundar Pičaj proste príde a povie ti, že
2:20 toto a toto ideme robiť a vlastne tí tí
2:22 veľkí akože lídri tých veľkých tímov ti
2:25 ukazujú vlastne tie nové produkty. Veľmi
2:27 často už posledné roky oznámia niečo a
2:29 rovno to vydajú. Čiže pooznamovali akoby
2:32 pomerne veľa dôležitých vecí. pár
2:36 zaujímavých takých akože jednotlivosti
2:37 vypichnem, ale v skutočnosti je
2:39 najzaujímavejší ten akoby podtón, ktorý
2:42 to celé malo. Ale tie zaujímavé veci asi
2:45 najväčšie praktická zmena je, že Google
2:48 oznámil zmenu vo vyhľadávaní, ktorá sa
2:51 volá, že AI mode, eh, ktorá je už
2:53 aktívna v Amerike. Na Slovensku to ešte
2:55 nevieš aktivovať poriadne bez nejakej
2:57 VPNky, ale v zásade je to AI
3:00 vyhľadávanie na štýl perplexity. Teda
3:02 niečo ty ty si môžeš aktivovať akoby
3:04 vyhľadávanie a tam mu napíšeš ako voľnou
3:07 rečou, že čo čo čo hľadáš a potom ti
3:10 LLMkko teda ten jazykový model ti
3:12 prehľadá web a syntetizuje ti odpovede
3:14 na boč do bočného panelu ti dá, že aha a
3:17 z týchto z týchto eh linkov som to
3:19 vytiahol von. Eh je to naozaj vlastne
3:22 to, čo robí Perplexity. tak robí aj
3:24 toto. Eh, z tých testov, ktoré som
3:27 videl, to robí relatívne rýchlo. Robí to
3:29 akože svižne. Eh, a tým, že Google vie
3:33 robiť dobre to vyhľadávanie, tak ti
3:35 akože dáva dobré výsledky eh byť
3:37 Perplexity, tak som akože z tohoto
3:39 pomerne nervózny, lebo tá škála akože
3:41 ostáva a ten produkt je veľmi veľmi
3:44 podobný.
3:46 Eh a tam a treba povedať, že eh taká
3:52 asociácia veľkých vydavateľov v Amerike
3:55 ešte ten večer myslím vydala správu, kde
3:58 akože hovoria, že že jediná eh akože
4:02 posledná taká dobrý vzťah s Googlom sme
4:05 mali vďaka tomu, že nám posielal trafic,
4:08 ak som musí ešte dostanem, že nám
4:09 posielal ľudí na web, ale to čo robí ten
4:12 AI mode, považujeme za krádež.
4:15 to toto to akože týmito slovami to bolo
4:18 trošku parafrázujem, ale akože týmito
4:20 slovami proste, že že považujeme to za
4:22 krádež a toto je
4:24 akože
4:26 neudržateľné a Google dal takú
4:29 korporátnu odpoveď a potom keď sa na to
4:31 pýtali Sundera Pičoja v rozhovore pre
4:33 Verge v decoder eh veľmi dobrý rozhovor,
4:36 eh odporúčam si ho vypočuť, eh tak
4:39 hovoril, že že no, že ako myslíme si, že
4:43 že my posielame Máme stále veľmi veľa eh
4:45 trafiku a stále to rastie a posielame
4:48 kvalitné návštevy tým webom a tak ďalej
4:49 a tak ďalej a chceme na tom pracovať,
4:51 ale dostal takú akože takú neutrálnu
4:54 odpoveď. Eh, čiže to bol ten akoby veľká
4:58 veľká zmena a potom ukázali pár takých
5:00 akoby ehm výhľadovejších alebo takých
5:03 akože abstraktnejších vecí mimo toho ich
5:05 hlavného produktu.
5:07 ukázali ukázali nástroje na generovanie
5:11 videa, ktorý sa volá, že VO3, teda nová
5:13 verzia toho nástroja Veo. Eh, postavili
5:17 k tomu taký produktový nástroj, ktorý sa
5:19 volá, že Flow, kde si môžeš, veľmi sa to
5:22 podobá na storyboard, hej, že ty mu
5:23 zadáš nejaký obrázok, on ti z toho
5:26 obrázku a povieš mu, že z tohoto obrázku
5:28 vyrob, takto ho rozpohybuje. ť ho
5:30 rozpohybuje a potom mu povie, že a teraz
5:33 urob prestrih z tohoto eh ako sa stane
5:37 XYZ. A on ti vlastne akože
5:40 vyskladá normálny storyboard
5:43 rozanimovaný, rozpohybovaný, vie to
5:46 robiť relatívne fotorealistické veci.
5:48 veľmi veľa času strávili tým, že oni
5:50 akoby učia ten model už teraz také akože
5:52 podkladové veci typu, že eh náš model
5:56 vie rozumie fyzike, hej, že čo znamená,
5:59 že keď akože rozumie tej scéne a
6:02 dokresľuje ju nie akože náhodne, ale
6:04 proste nejakým spôsobom a veľká vec, aby
6:08 bola kompatibilná s týmto vesmírom, hej?
6:09 Áno, áno, áno. Akože aby si sa na to
6:11 pozrel a akože ti nevybuchol mozog
6:13 podvedome, hej? že sa na teba pozerá, že
6:14 nechápeš, že že tak že nie, takto sa
6:17 tekutiny nesprávajú. Hej? Eh a eh
6:23 čiže veľká vec, ktorú tam chválili, že
6:26 už to vie robiť audio, čiže ti to rovno
6:28 vygeneruje proste ozvučené video, čo
6:30 doteraz vlastne akože nebolo. Eh, čo
6:33 znamená, že pre nejakých akoby eh
6:37 tvorcov AI slopu je toto akože dokonalý
6:41 nástroj a vlastne on ti to vie urobiť aj
6:43 všetok ten ako keby eh hm tie
6:46 backgroundové zvuky, hej, že ako keby
6:48 tie efekty a prípadne aj nejakú tú hudbu
6:50 a vlastne ako keby celý ten balík toho,
6:52 čo potrebuješ k tomu vizuálu.
6:54 Ak robíš akože, ak chceš iba urobiť také
6:57 tie eh také tie hlúpe prehovorené
7:03 Facebookové videá, ktoré proste
7:05 zaplavujú tam realská akoby na
7:07 Facebooku, také tie, že a neuveríte, čo
7:10 urobil tento človek, keď skočil do
7:12 bazéna a že potopil sa. akože taký tie
7:15 úplne ten ten ten triviálny obsah, ktorý
7:18 akože iba nejak funguje, aby ťa akože
7:20 nahneval a klikneš si naňho. Tak pre
7:23 týchto ľudí to podľa mňa im akože, že sa
7:26 otvorili nové doteraz netušené
7:29 možnosti. Hm. Ale keď sa na to, ale
7:32 treba uznať, že ako technicky je to
7:35 veľmi zaujímavé, čo sa, čo sa tam deje,
7:38 že naozaj akoby to robí, že vidíš ten
7:42 veľmi veľmi rýchly pokrok
7:43 medzigeneračný.
7:45 Eh
7:47 a eh to a a to isté vlastne s tým ich
7:51 nové s tými novými eh obrázkovými
7:53 nástrojmi. Tie sú Imagen 4, ktorý
7:56 vlastne opäť akože veľký generačný skok,
7:58 ale to sme vedeli, že sa že sa v
8:00 princípe stane. Ale akože ja som ja som
8:03 z toho videa bol nervózny. Úplne úplne
8:06 povedané. Ja tiež akože celkovo eh hm ja
8:10 to automaticky pozerám cez tú optiku, že
8:12 akým všemožným spôsobom sa to dá zneužiť
8:15 a využiť. Takže eh mne podvedome vždycky
8:19 blikajú kontrolky, že jedna vec je, že
8:20 po tej technickej stránke rozmýšľam, že
8:21 je to fakt akože super urobené, že ako
8:25 vie to prekvapiť, aké to je často
8:27 realistické, ale hneď v tej sekunde eh
8:31 sa tá moja pozornosť presmerovala skôr
8:33 tým kontrolkám, ktoré mi na pozadí
8:35 svietia. zároveň hovorili, že už do toho
8:38 je vpečený akoby ten protokol, ktorý
8:41 označuje to video, aby bolo ľahko
8:43 identifikovateľné, že je umelo vyrobené
8:44 a proste, že že to je už súčasť toho
8:46 videa a a zároveň ale nepovedali ti, že
8:49 a tuto je zadarmo nástroj, ktorým si
8:50 môžeš overiť eh ľuboľné youtubové
8:52 videjko. Akože to už to už neurobili.
8:54 Pravdepodobne to bude existovať, aby sme
8:56 boli féroví, hej, že oni to je aj v ich
8:57 záujme, aby akože ten obsah vedeli
9:00 odlíšiť autentického od neautentického
9:03 do momentu, kým to nezačnú používať ako
9:05 konkurenčnú výhodu, hej, že aha, my
9:07 vieme rozlíšiť to, čo je skutočné a
9:10 použiť to v page ranku akoby na na
9:13 hodnotenie obsahu,
9:14 ale to je také ako pomerne abstraktné.
9:18 Ešte sa chcem dostať k tým ďalším akoby
9:21 tým produktovým veciam a potom k tomu k
9:23 tej k tej nad téme, ale eh oznámili
9:26 preklad hovoreného slova v Google Meet.
9:28 Google Meet je verzia Zoomu alebo
9:30 Teamsov vlastne, ktorá je v tom
9:32 googlskom ekosystéme, čiže môžeš si
9:34 niekým zavolať, to sa volá Google Meet,
9:37 eh, a videohovor cez internet a ukázali
9:41 funkčnú. Myslím si, že je to teraz v
9:43 bete, ale akože bude to už dostupné
9:45 alebo to bude veľmi skoro dostupné? Uhm
9:47 verziu toho nástroja pre eh pre myslím,
9:52 že španielčinu a angličtinu. Čo znamená,
9:54 že ty hovoríš po španielsky, ja hovorím
9:56 po anglicky a ako ty hovoríš, tak mne už
10:00 rovno prechádza do uší preložen
10:02 preložené audio. Myslím si, že je to
10:04 ešte stále syntetický hlas, ale
10:07 fungovalo to veľmi hladko, hej, že že
10:09 naozaj veľmi hladko. a hovorili, že budú
10:13 rýchlo naberať nové a nové jazyky, čo
10:15 znamená, že naozaj ti, že že tam tam
10:18 vidíš praktické využitie tohoto, že že
10:21 presne, že že rýchlo hm nejaké technické
10:25 pokroky v LLMkách, že že rýchlo to
10:27 syntetizuje ten hlas, rýchlo to
10:28 prekladá. Proste toto je taká kombinácia
10:30 tých eh jednotlivých inovácií eh v rámci
10:32 tej umelej inteligencie, teda že
10:34 napríklad eh hm je tam nejaká
10:36 optimalizácia, aby to vedelo bežať live.
10:39 Do budúcna tam môže byť nejaká
10:40 syntetika. eh toho samotného hlasu, aby
10:42 to nebol teda eh generický syntetický
10:44 hlas, ale bol to môj naklonovaný hlas a
10:47 proste jednotlivé takéto tie zložky ti
10:50 skladajú nejaký konkrétny naozaj
10:53 užitočný AI produkt. Hej. Čiže toto
10:56 veľmi veľa hovorili o tom, že ako sa im
10:58 zrýchlili tie LLMK. proste, že že ako
11:01 ako oveľa rýchlejšie to vlastne žuje ten
11:04 ten vstup okolo. Ukazovali také demo,
11:07 kde chlapík mal myslím, že mal buď mal
11:10 okuliare alebo mal iba na sebe akoby
11:11 webkameru a bolo to prednahraté demo a
11:14 rozprával sa naživo s tým s tým modelom
11:17 a hovoril, že opravujem si bicykel a a
11:20 prosím ťa, že že aký akú súčiastku
11:22 potrebujem na toto. A on ten model akože
11:24 aha, toto je to toto je tá súčestka a
11:26 akoby to to reálne riešilo tú živú
11:30 interakciu, hej, čo a a tam to už bolo
11:33 také, že a bude to dostupné niekedy
11:35 neskôr, hej, že ale máme to trochu. Viac
11:38 som tým demám veril ako posledné roky,
11:40 akože naozaj sa mi zdalo, že tie
11:42 produkty sú, že to je bližšie k tomu,
11:45 ako je naozaj realita toho, čo vedia
11:47 poskytnúť. minulé roky a hlavne pred
11:49 tými dvoma, troma rokmi, keď mali tie
11:52 tie prezentácie, tak to bolo, že a tuto
11:54 máme takúto super vec, ktorá bude
11:56 niekedy neskôr tento rok eh určite
11:59 geniálne fungovať, akože nie nefungne.
12:02 Eh, ale tá rýchlosť toho a potom sa
12:06 chválili, že že nižšia cena a tak ďalej
12:08 a tak ďalej. Tým sa samozrejme chválil
12:09 aj Microsoft. A posledná taká akoby pre
12:13 mňa zaujímavá vec, ktorú ukázali, bol už
12:16 živý koncept tých eh okuliarov. Ukázali
12:20 eh je to nabalené vlastne na akoby novú
12:23 platformu, ktorá sa volá Android XR. Eh
12:26 teda akože extended reality alebo tak
12:29 nejak. XR to máš väčšinou také ako keby
12:31 ehm také zástupné pre akýkoľvek ten typ
12:36 reality, že proste rozšírené alebo
12:37 virtuálna alebo čokoľvek proste. A tam
12:39 to bolo zaujímavé, lebo tam eh ukázali
12:42 fyzicky okuliare, ktoré už v sebe mali
12:44 kameru, elektroniku, niečo. Mali tam
12:47 takéto pokazené demo, kedy proste sa
12:49 pokúsili urobiť z dvoch okuliarov live
12:51 stream. Proste, že aha, to je človek,
12:53 ktorý proste ide každý povedali, každý
12:55 povedali jednu vetu, preložilo ju a
12:56 potom sa mi to zaseklo. Presne tak. Hej,
12:58 že
13:00 ale eh dostali už do tých okuliarov
13:03 kameru. Tie okuliare už nevyzerali úplne
13:05 komicky. Akože už to nevyzeralo, že máš
13:08 Stále si okamžite rozoznal, že to je
13:10 technologický produkt, čo má niekto na
13:12 nose. Akože stále to vyzerá, že že
13:15 dobre, v tomto je veľa akože schovanej
13:18 elektroniky, ale už je schovaná ako tak
13:20 akože elegantne, hej? To už sa to začína
13:23 podobať viacej proste na bežné okuliare
13:25 a menej na vyslovene nejakú techniku,
13:28 ktorú máš na ksichte. Hej. Áno. Takže eh
13:32 dizajnovo sa to posúva už niekam do tej
13:34 nositeľnej oblasti. eh, že už sa nebudeš
13:38 eh hanbiť chodiť s tým na ulici. Ešte
13:40 podľa mňa rok dva, hej, pre takých tých
13:42 akože veľkých fanúšikov a päť rokov, tri
13:44 štyri roky pre takého akože bežného
13:46 spotrebiteľa. Eh, mal to v sebe kamery,
13:49 má to v sebe mikrofóny, má to v sebe
13:50 akože 1 veci. Eh, dostali do toho
13:53 displej. Teda vidíš farebný displej na
13:55 jednom oku, ktorý ti vlastne akoby je v
13:58 je taká akože transparentný displej,
13:59 čiže ty vidíš normálne cez tie okuliare,
14:01 ale vedia ti akoby eh inicializovať
14:04 displej. ukazovali napríklad, že tie
14:06 klasické veci, že kameru si môžeš
14:08 pozrieť. Eh, ale napríklad ukazovali
14:11 typu, že že sa, že iba prešiel okolo
14:15 nejakého plagátiku a potom sa spýtal
14:18 alebo spýtala tá tá eh pani, ktorá to
14:20 demovala, že čo bolo na tom plagáte, že
14:22 kam mám ísť a on to vytiahlo vlastne z
14:25 nejakej nedávnej minulosti proste nejakú
14:27 vec, ktorú si pamätal ten model.
14:31 Veľmi ma zaujíma, že koľko by stálo
14:32 niečo podobné reálne prevádzkovať v
14:34 momente, keby to akože šialene
14:36 nedotovali. Hej. Mňa akože na tom
14:39 zaujíma hlavne h ten praktický aspekt,
14:41 že výdrž batéri napríklad, lebo eh
14:44 vždycky pri tých okuliaroch eh tým, že
14:46 je to strašne minimalistický formfaktor,
14:48 tak proste eh prvá vec, čo riešiš tú
14:50 takú hlavnú zábranu, je, že koľko ti to
14:52 vôbec vydrží biežať. A keď to má naozaj
14:54 na pozadí proste stále eh pracovať na s
14:57 nejakým LLM-kom a napríklad ešte aj s
14:59 tými dátami vizuálnymi, ktoré proste, že
15:02 že opýtam sa na niečo, čo som cez tie
15:05 okuliare videl pred chvíľkou, tak eh mi
15:08 to príde akože vyslovene laicky akože
15:11 dosť eh záberák, takže by ma zaujímalo,
15:13 že koľko tie okuliare vydržia. Podľa mňa
15:15 v princípe sa deje to, že oni musia brať
15:17 ten videofit, čo znamená, že keď s tým
15:20 funguješ a nie a tak buď musia akože
15:23 robiť screenshot každých pár sekúnd, aby
15:26 mali nejakú pravdepodobnosť toho, že že
15:29 a v momente natáčať a v momente, keď to
15:32 akože inicializuješ
15:34 presne tak, tak akože zrazu live
15:36 streamuješ tých okuliarov na nejaký
15:38 akože je nelive streamuješ na Twitch,
15:40 ale live streamuješ nejakému Google
15:42 serveru, ktorý to chrúme, hej, v pozadí.
15:44 To to je to už ti jedno, že že ten
15:47 computer na tých okuliaroch asi nie je
15:49 iba enkodovanie toho videa a prijímanie
15:51 tých dát, ale ale aj tak akože hej
15:56 nonstop nejaká komunikácia proste cez
15:58 dáta tiež je nálačná. Takže aódovanie
16:01 toho videa, akože, že len si zober, že
16:04 keď máš obyčajný telefón s baterkou,
16:07 neviem čo, dobre zoptimalizovaný a tak
16:08 ďalej a tak ďalej, začneš streamovať
16:11 alebo začíneš nahrávať akože dlhšie
16:13 dlhšie video, tak akože ten telefón je z
16:15 toho pomerne nešťastný. Takže tie
16:18 okuliare podľa mňa tiež budú ako bude
16:21 trvať ešte roky, kým to bude taký ten
16:24 spotrebiteľský produkt, ktorý nad ktorým
16:26 budeš rozmýšľať, hej, že že ktorý bude ž
16:29 Jasné, to ešte asi troška počkáme, ale z
16:32 tých pár rokov eh ubehne rýchlo a keď si
16:35 zoberieme, že eh že bude Google Glass
16:38 mohli byť kedy, no to je akože viac ako
16:40 10 rokov dozadu a eh už tie tri štyri
16:45 ročky vydržíme.
16:47 Ja mám stále akože vidíš na tom tú
16:51 implicitnú užitočnosť niečoho
16:53 podobného, ale ja mám
16:56 stále eh 2013, čiže áno, normálne je to
16:59 12 rokov sú Google, ale ja mám stále
17:03 taký mne v hlave beží, že keď chodíš s
17:07 tými okuliarmi po svete, tak to musí
17:10 zmeniť dynamiku medzi tebou a ľuďmi, s
17:14 ktorými interaguje.
17:17 ako človek, keď keď sa budeme hýbať
17:21 všetci po svete s tým, že je automatický
17:25 predpoklad, že všetko, čo povieš, je
17:27 zaznamenané,
17:29 konštantne, pochrúmané, dané do nejakého
17:32 kontextu a tak ďalej a tak ďalej, tak
17:35 mne, neviem, či každému, ale mne nabieha
17:37 hrozne veľa filtrov. Proste predstav si,
17:41 že si paranoik a zobá.
17:45 Niekto ma nahráva. Hej, konštantne. Áno.
17:49 Ale paranoci veľa šťastia a mnohí ďalší
17:52 sa stanú stanú paranoikmi. Ale ale vieš
17:54 čomu hovorím, že že sú proste
17:57 akoby máš 1000 drobných interakcií denne
18:00 a sú veci, ktoré musíš nejak
18:01 pristupovať, že k tým každodenným
18:03 veciam, že proste eh aké to niekedy
18:05 môžeš mať dôsledky. No proste eh nemal
18:07 by si sa správať ako úplný blbec, lebo
18:09 ktokoľvek napríklad si ťa môže
18:11 kedykoľvek, ale takto zapamätať. Ale to
18:13 je, vieš, že sú veci, ktoré proste, že
18:16 sedíš s kolegami a povieš nejaký vtip a
18:19 ten vtip nie je ani blbý, ani
18:20 sexistický, ani nejaký, ale je taký,
18:22 ktorý si vy bežne hovoríte a rozumiete
18:25 tomu, rozumiete ho kontextu, rozumiete,
18:27 ako je myslený. Eh, a a a teraz inak
18:30 akože zniem ako ten ten človek, že však
18:33 to bol iba vtip, ha, čo ste takí útlctí.
18:36 Ale akože snažím sa ten Ale človek,
18:39 ktorý ide okolo teba, to môže úplne bez
18:43 kontextu, bez nejakého niečoho, to môže
18:47 úplne vytrhnúť aj aj celý ten ten svet
18:50 okolo, hej? A normál a fakt mi beží v
18:54 hlave, že ako sa ti zmení tá základná
18:57 dynamika toho, keď toto začneš akože sa
18:59 hýbať v takomto svete a že či chcem byť
19:02 toho súčasťou. Akože asi nevyhnutne
19:04 budeš, hej? Lebo proste nie nejaká
19:06 verzia tohoto nás proste trápi, ale
19:10 akože ale môžeš to mať aj akože tie h
19:12 pozitívne aspekty, hej, že presne túto
19:14 jednu situáciu, že vieš čo eh Jožo mi
19:18 včera hovoril eh dobrý vtip, nemôžeš si
19:20 naňho spomenúť a tie okuliare ti to ti
19:22 to presne pripomenú, lebo napríklad eh
19:24 nemajú videofit, ale majú napríklad eh
19:26 transkript to to všetko čo si sa
19:27 rozprával, hej, ktorý ľahko uložíš,
19:29 nezaberá skoro nič a tak ďalej a presne
19:31 ti tú informáciu hodí, že presne o čom
19:33 to bolo. A a potom máš aj ten akože je
19:35 to je to mierne orvelovské, ale aj ten
19:38 akože, že ľudia pod dohľadom sa naozaj
19:40 správajú civilizovanejšie, hej, že akože
19:42 ten moment, že je dôvod, prečo ľudia,
19:45 ktorí majú zlú interakciu s policajtom
19:48 alebo s nejaký s nejakou autoritou akože
19:50 vyťahujú telefón teraz, že ako nejakú
19:52 prvú ako akože prvý reflex, že a ja si
19:55 to nahrám a uvidíme a zrazu sa ti
19:57 posunie tá tá debata sou okamžite posúva
20:00 akože inam. Čiže uhm tuto už bude
20:02 predvolené všetko na kamere, dá sa
20:04 povedať, hej? Takže eh aj ten policajt k
20:06 tomu automaticky bude tak pristupovať a
20:09 aj tí ľudia nebudú vytiavať telefóny,
20:10 ale budú vedieť, že im eh sú nejakým
20:12 spôsobom povedzme, že chránení a eh zas
20:15 je ten pocit z tej situácie trošička
20:17 iný, ako ako do nej vstupuješ. A ešte
20:19 bude úplne komické, ako sa ti zmení
20:21 dynamika pracovných stretnutí, lebo ten
20:23 moment, že to som nikdy nepovedal, že hm
20:27 eh debil pracovných stretnutí. Eh áno,
20:29 áno. Inak aj domáca dynamika môže byť eh
20:33 veľmi zasiahnutá týmto. Domáci život eh
20:36 môže byť eh a možno to bude, vieš, možno
20:38 to bude presne naopak teraz, že že vieš
20:40 koľkokrát ti žena povie, to som ti
20:42 povedala a tak ďalej a tak ďalej, že ty
20:43 si to vôbec nepamätáš a teraz ty zistíš,
20:45 že vlastne ty máš ten dôkazový materiál
20:47 a zistíš, koľkokrát ti naozaj nič
20:49 nepovedala a tvárila sa, že povedala
20:52 alebo koľkokrát ti niečo povedala a ty
20:53 tvrdí, že život. Neviem a možno možno
20:55 presne naopak. Eh to asi zistíme až v
21:06 [Hudba]
21:08 praxi. To sú tie akože veľké produktové
21:11 oznámenia. Microsoft oznámil, aby som to
21:13 rýchlo zbehol, naozaj oni to mali oveľa
21:16 vec pre developerov, čiže oni oznámili
21:18 veľa vecí okolo copilota, teda akoby tie
21:20 kóderské prostredia, veľa vecí vo
21:23 Windows, akože vpiekli AI do Windowsov,
21:25 vpiekli AI do Edge, vpiekli AI akože, že
21:28 kade tade sa len dalo, ale nič z toho
21:31 nebolo také, že sa na to pozrieš, že že
21:33 ok, že že toto je must have, hej, že že
21:36 nebolo to ako sú ako boli tie imagine
21:38 veci. Proste ten Microsoft, ale tú
21:40 konferenciu má naozaj podchytenú. Inak
21:42 oni to akože veľmi tlačia do toho, že
21:45 to, že my vám ukazujeme nástroje ako
21:48 developerom, ako vývojárom, ako akože
21:52 partnerom, na ktorých budete môcť
21:54 stavať. Čiže pred je akože dve vrstvy
21:56 abstrakcie od bežného spotrebiteľa, že
21:59 čo v tom oznamujú. Ale videl si dva
22:02 akoby zaujímavé také, že celkové trendy
22:05 z obidvoch tých prezentácií a najmä
22:07 Verge malo dva veľmi dobré rozhovory v
22:10 podcaste Decoder. Eh, mali tam v
22:12 priebeohu týždňa mali tam Sundara pičia,
22:14 teda šéfa Googlu a mali tam
22:16 technologického šéfa eh Microsoftu,
22:19 Kevin Scott sa tuším volá ten človek. A
22:21 s obidvomi mali naozaj naozaj veľmi
22:23 dobrý akože hĺbkový rozhovor o tom, že
22:25 ako ako podľa nich bude fungovať ten
22:27 svet. A vidš, vidíš tam dve témy, ktoré
22:30 akože sú veľmi zaujímavé.
22:33 V zásade sa zdá, že sú tí ľudia vysoko v
22:36 týchto firmách už presvedčení, že si
22:39 naozaj v novej generácii akoby toho, ako
22:42 funguje celý digitálny svet, lebo a a
22:46 asi to nie je, že teraz je tá prechodná
22:48 fáza, ale v princípe je zjavné, že
22:52 veria, že tí ako tvorca
22:56 akoby dnes je web eh séria databáz,
22:59 ktoré majú pekné obrázky nad sebou, na
23:01 ktoré ty môžeš že ako človek klikať, ale
23:04 v pozadí je veľká databáza, ktorá si
23:06 pamätá, že Smečko je databáza článkov,
23:09 Alza alebo eshop je databáza produktov a
23:12 eh banka je databáza platobných možností
23:14 a a tie databázy sa medzi sebou
23:16 rozprávajú. Teraz to ovládajú ľudia tým,
23:18 že klikajú myškou alebo na telefóne a
23:20 ovládajú akože hovoria tej databáze, že
23:22 čo má robiť. Ale web je web je a to to v
23:25 tom decoder akože takto pomenovali, ale
23:27 páči sa mi to, tak som to tam ukradol.
23:29 web je akože eh skupina databáz nejako
23:32 prepojená a zjavne v Microsofte aj v
23:36 Googli veria, že s tými databázami
23:39 prestanú interagovať ľudia a na náš
23:43 poput alebo akože v našom zastúpení s
23:46 ním budú interagovať agenti, akože
23:49 nejaké roboty, ktoré dostanú zadanie a
23:52 budú dostanú zadanie alebo to budú robiť
23:55 proaktívne. Iba ja toho môjho robota
23:57 nejakou interakciou naučím, že ráno
24:00 chcem správy, eh a ten robot ráno ma
24:03 zobudí a obehne si obehne si správy
24:07 proste akoby na na Smečku a na
24:11 aktualitách a proste tam na Verge a na
24:13 CNN a tam, kde vie, že ja rád chodím a
24:16 vytiahne odtiaľ tie správy, zhrniem ich
24:18 a a dodá mi ich. A to isté, keď mu
24:20 poviem, že že hej, robot, ja si chcem
24:22 kúpiť nový počítač, eh, a takýto asi by
24:27 mal byť a nájdi mi taký s dobrou cenou a
24:29 ten robot začne chodiť na akože nejaké
24:31 weby a a hľadať, začne krolovať shopy a
24:34 nájde nejakú zostavu za za slušný slušnú
24:37 ponuku. Tak a spýta sa ma, že chceš to
24:39 kúpiť alebo nechceš a ja poviem, že
24:40 počkaj, kým to bude o stovku lacnejšie.
24:43 Eh, až tak mi to neponáhla. A ten robot
24:45 zrazu si zapamätá, že dobre, tak ako
24:48 budem chodiť na tie weby každých pár
24:50 mesia každých pár dní a pozriem sa, čo
24:52 tam majú, alebo sa porozprávam s robotom
24:55 tých tých iných akože s robotom hopov a
25:00 poviem mu, že mám tu zákazníka, ktorý
25:02 chce toto urobiť, ale toto je jeho
25:04 cenový strop, že že dajte mi zľavu, hej,
25:07 napríklad.
25:08 A a videl si ako ten Microsoft na toto
25:13 veľmi tlačí, lebo Microsoft vidí v tom
25:16 možnosť vylomiť web z akože z eh z z
25:22 podmania Googlu, lebo web je teraz ako
25:26 web ako je teraz je organizovaný podľa
25:28 potrieb Googlu, lebo Google bol najväčší
25:32 zdroj trafiku pre väčšinu webov. vlastne
25:35 všetci sa mu prispôsobovali tak, aby
25:37 boli viditeľní cez Google. Presne tak.
25:39 Čiže Google akože môžeme sa rozprávať o
25:42 tom, či to robí elegantne a a zodpovedne
25:45 a tak ďalej. Akože sú veľa ľudí si
25:47 myslia, že áno, veľa ľudí si myslí, že
25:48 to robilo zodpovedne a teraz už je to
25:50 menej zodpovedné, ale akože že Google má
25:54 eh web je zorganizovaný podľa
25:56 potrebne verí, že ten nový, že majú
26:00 šancu vlastne tým, že ten starý systém
26:03 sa rozpadne a musí vzniknúť nový, takže
26:06 majú šancu zorganizovať ten systém podľa
26:08 iných potreb. Ideálne podľa potre
26:11 Microsoftu, ale akože podľa iných
26:12 potrieb. A eh a vidíš ako tie potreby sa
26:16 eh záhadne podobajú na potreby
26:19 Microsoftu, hej? Jasné. Záhadne zbú
26:22 alebo Open AI alebo Amazonu alebo
26:24 kohokoľvek to postaví. Ale v princípe ti
26:27 hovoria, že pozrite sa, my vám teraz
26:29 dávame technológie, ktoré si vy môžete
26:31 ako prevádzkovateľ hopu, obsahového webu
26:34 alebo kohokoľvek integrujte si túto
26:37 akože tento štýl databázy. To sa volá eh
26:40 MCP. To je akože iba spôsob, ako upravíš
26:43 svoju databázu, svoj web, tak aby ho
26:46 vedel dobre sa s tým vedel rozprávať ten
26:48 robot ako
26:51 a potom a je to rovnaké, ako bol pôvodný
26:54 webový protokol, akože HTTP, hej, že
26:56 tomu bolo jedno, čo prenáša, hej, že
26:59 obrázok dobre, akože text dobre
27:02 odnesiem, hej, on si pýta, ja mu
27:04 donesiem a je mi to jedno. A toto je
27:05 veľmi podobný, filozoficky podobný
27:07 tento, že tuto sú nejaké informácie
27:10 požuté, nachystané na to, aby si ich
27:12 mohol niekto prísť akože vyžiadať ZLMK
27:14 alebo na nich vykonať nejakú nejakú
27:16 akciu. A a a teraz Microsoft sa vlastne
27:20 tlačíš do tohoto. Google je s tým
27:23 vlastne OK, len to chcú urobiť skôr a
27:26 zároveň eh ti eh sa ti ostáva taká
27:32 otázka, že a prečo by som to mal chcieť
27:36 ja ako ja ako prevádzkovateľ toho webu,
27:38 ktorú nevedia
27:40 zodpovedať, lebo v zásade ten pôvodný
27:45 kontrakt, ten akože spoločenský kontrakt
27:48 internetu bolo, že ja mám webovú
27:49 stránku,
27:52 ktorá má obsah za nejakých podmienok
27:56 sprístupním Googlu. Dám ho do RSS s
27:59 čítačky, dám ho na Facebook, za nejakých
28:02 okolností ti ukážem časť môjho obsahu
28:03 alebo časť môjho akože ja a ty mne ako
28:08 platforma vrátiš naspäť pozornosť
28:11 čitateľov, pozornosť zákazníkov. Ty mi
28:13 ty mi ho privedieš na môj web a keď je
28:16 na mojom webe, ja si ho tam ja tú
28:19 pozornosť premením na peniaze. Buď mu
28:21 niečo predám, alebo mu predám
28:23 predplatné, alebo mu predám produkt,
28:24 alebo mu ukážem reklamu a za to dostanem
28:27 peniaze.
28:29 A podľa v svete tých agentov toto nie je
28:33 to toto nenastane, lebo ten človek,
28:36 jediná vzácna vec na internete
28:38 nereplikovateľná je ľudská pozornosť.
28:40 Čiže ten človek nebude venovať tomu tomu
28:43 akože pozornosť. Príde jeho robot a
28:46 získa tú vec a potom ten človek bude
28:49 venovať pozornosť tomu robotovi, ktorý
28:52 zoberie môj obsah. A a keď sa ich presne
28:55 ten Nilaj Patr akože šéf Verge sa ich
28:57 pýtal, že že ako je funguje tento
29:00 biznisový vzťah, čo bude motivovať nás
29:03 ako Verge, nás ako médium, aby sme dali
29:05 ten obsah a čo bude motivovať Uber alebo
29:08 proste Dordeš alebo eshop, aby vám to
29:11 otvoril? Lebo, lebo vy sa postavíte
29:15 medzi váš robot sa postaví medzi mňa ako
29:19 držiteľa toho obsahu a zákazníka a od a
29:23 odcudzíte mi ten vzťah a nepustíte ma a
29:26 nemali od akože hovoria, že toto je
29:28 nevyriešená otázka, sú nejaké nápady,
29:31 ako sa to dá urobiť, že napríklad dáš
29:33 tomu robotovi rozpočet, hej? Povieš mu,
29:36 že ty si platíš, ty platíš Googlu Open
29:40 niekomu 50 € mesačne za robota a ten
29:43 robot robí všetko za teba na
29:45 internete a minie tých 50 €. Z tých 50 €
29:50 25 € minie na niečo. A možno akoby keď
29:54 zistíš, že zobral sedem článkov Smečka,
29:57 tak akoby Smečku dáva pár centov, hej? A
29:59 potom keď zistíš, že že aktualitám, tak
30:01 podľa nejakých pravidiel, ktoré si tie
30:03 roboty medzi sebou určia, ale nikto
30:05 nevie, či to sadne, nikto nevie akoby,
30:07 či to tí ľudia budú platiť normálne, že
30:11 že
30:12 aby som dal troška nejaký konkrétnejší
30:14 príklad, tak eh napríklad z pohľadu toho
30:16 es-hopu, že rozdiel medzi tým, že nejaký
30:19 agent ti príde podľa zadania nakúpiť
30:21 niečo na eshop a tým, že tam príde
30:23 reálny človek, je v tom, že eh ty ty
30:26 naozaj máš pozornosť toho človeka a ty
30:29 ho vieš nejakým spôsobom ovplyvniť. Eh,
30:31 ten agent, on má presné zadanie. On a
30:34 buď tam u teba nájde to, čo hľadá, alebo
30:36 nie a bude hľadať ďalej. Ale keď už tam
30:39 máš toho človeka, eh, tak ty ho vieš
30:41 nejakým spôsobom presvedčiť, aby eh
30:45 zmenil to, čo chce napríklad. Hej,
30:47 povedzme, že hľadám práve nejakú tú
30:48 počítačovú zostavu, ale čo viem, mám v
30:51 eh v akcii nejakú nejakú lepšiu,
30:54 drahšiu, ale je akurát v dobrej cene.
30:56 Priplatíš si len troška viacej, ale už
30:58 už tam budeš mať lepšie špecifikácie
31:00 alebo máš proste nejaké príslušenstvo v
31:02 akcii, ktoré si k tomu počítaču môžeš eh
31:05 práve dokúpiť za výhodnejšiu cenu, alebo
31:07 majú celkovo nejakú akciu, na ktorú ťa
31:09 jednoducho namotajú, ale tú príležitosť
31:11 namota ťa nedostanú, eh, pokiaľ ty
31:14 neprídeš osobne na ten web, hej? A a to
31:17 je a to je ďalšia vec. To je akože úplne
31:19 pomimo toho, ale teraz keď si to
31:20 povedal, že dnes je web urobený celý
31:24 celý celý celý web funguje tak, že
31:27 čokoľvek robíš, čokoľvek sa má stať v
31:29 digitálnom priestore, tak na jednej
31:31 strane je automatizovaná databáza,
31:33 webová stránka a na druhej je
31:35 netrpezlivý človek, ktorý to už chce mať
31:36 za sebou. akože že hrozne veľa
31:39 problémov, ktoré my riešime ako médium,
31:42 ktoré eshopy riešia, je, že ten človek
31:44 tomu nebude rozumieť a odíde mi, lebo
31:48 proste nedostal okamžite v jednej
31:50 sekunde to, čo hľadal. je je, že 80%
31:53 problémov, ktoré akože dnes riešiš, keď
31:55 keď robíš weby, sú je vlastne akože
31:58 vychádza z tohoto, čo čo čo teoreticky
32:01 prestane existovať ako problém, lebo v
32:03 momente, keď môj nákup vyzerá tak, že
32:05 hej, robot choď, tak je mi jedno, či ten
32:08 nákup tomu robotovi trvá pol hodinu
32:10 alebo 4 hodiny alebo 15 sekúnd, lebo sa
32:14 udeje, keď ja spím a nie nie všetko to
32:18 také to bude, lebo keď chceš obed, tak
32:19 chceš ho tak ho chceš akože do polohy.
32:21 hodiny, ale ale je jedno tým, ako je
32:25 dneska akoby, že musím toho človeka
32:28 previesť tým nákupným procesom za 25
32:30 sekúnd inak a a tri kliky inak je preč.
32:32 Tomu robotovi to bude šuma fuk, čo ale
32:36 opäť presne to, čo si povedal, hej, že
32:38 že strácaš ako tvorca obsahu alebo
32:41 prevádzkovateľ internetového biznisu
32:44 strácaš kontakt s tým zákazníkom. je
32:46 zase abstrahovaný o ďalšiu úroveň preč
32:50 a motivácia by asi mala byť taká, že to
32:53 bude efektívnejšie pre
32:55 teba. Ale to nám sľubovali už akože nám
32:59 akože nie mne, ale akože to bol ten
33:01 implicitný sľub všetkých týchto
33:04 platforiem. A nakoniec zistíš, že ti, že
33:07 to nie je tak úplne, hej, že tá
33:10 platforma niekedy pomáha, niekedy akože
33:12 v mnohom pomáha, ale má tendenciu si
33:15 lízať smotanu a čoraz viac. A neviem,
33:20 mňa ešte napadlo k tomu es-hopu, že
33:22 vlastne eh čo keby eh ten samotný es-hop
33:26 zapracoval nejakú službu umelej
33:28 inteligencie. Eh, vieme, že to stále
33:30 majú proste tie maličké okienká s
33:32 chatbotmi, ktoré sú úplne zbytočné, lebo
33:34 nikdy sa nedozvieš to, čo potrebuješ a
33:37 eh len sa viac-menej snažíš cez neho
33:39 preklikať, aby si sa dostal k živému
33:41 človeku. Eh, ale keby bol reálne
33:43 užitočný ten chatbot, že napríklad eh eh
33:46 zapracuješ tam nejaké LLMko, že a teraz
33:48 mi v tej tvojej databáze nájdi taký a
33:50 taký produkt, ktorý hľadám, eh vyhoď mi
33:53 niekoľko možností eh, ktoré máš aktuálne
33:55 v ponuke a zistím, či sa to zhoduje. A
33:58 keď už niečo nájdem, ešte mi k tomu vie
34:00 on on proaktívne vyhodiť práve nejaké
34:02 návrhy na príslušenstvo a podobné veci,
34:04 aby proste ten obchodník predal ešte
34:06 viac a máš to ako keby
34:09 eh v tejto fáze, keď ešte eh nie sme
34:13 tam, kde hovoríš, že eh budeme mať
34:15 nejakého AI agenta, ktorý toto bude
34:17 robiť eh za nás plošne z našej strany
34:19 ako používateľa, tak to môže byť
34:20 konkurenčná výhoda pre eh nejaké väčšie
34:23 eshopy, ktoré toto vedia rýchlo
34:24 zapracovať a využiť ten čas, kým ešte
34:27 nie sme úplne, že v tejto dobe. To je
34:29 ešte ten tretí krok, ktorý sa ďalej
34:30 stane, je, že oni vlastne si
34:33 predstavujú, že lebo teraz je to tak, že
34:35 môže prísť robot a rozprávať sa s tvojím
34:37 webom. To je akoby ten MCP protokol a a
34:40 akože jednoduché to, čo robí teraz
34:42 Google a na čo akoby taktiež ako
34:44 hovoria, že chystajte sa na toto je, že
34:46 aby sa tí agenti vlastne mohli rozprávať
34:48 medzi sebou. Čo znamená, že môj
34:51 robot príde a chce si kúpiť nejakú
34:54 elektroniku, ale nemusí preljsť celý ten
34:57 web. Ale povie povie robotovi eh akože
35:00 toho eshopu, že hej, mám zákazníka,
35:03 ktorý hľadá toto a na druhej strane
35:05 dostane odpoveď, že toto je naša ponuka
35:08 a tá ponuka môže byť sformovaná záujmom
35:10 mňa ako majiteľa toho eshopu a asi by
35:13 som mohol odrezať toho robota proste, že
35:16 hej, ty robot, ak prídeš na môj web, tak
35:17 sa nemôžeš interagovať priamo s celou
35:20 mojou databázou. Tuto sa rozprávaš s
35:22 mojím akože virtuálnym, ktorý už to má
35:24 naštudované a presne ti dá tú odpoveď,
35:26 ktorú ty potrebuješ, ktorý by
35:27 hypoteticky vedel robiť to, čo si ty
35:29 spomínal, že že ten človek chce toto za
35:31 1100 €. Nie, že naša ponuka je toto za
35:34 1200, lebo si myslíme, že je o toľkoto
35:36 lepšia a a teraz, že že budú tie roboty
35:38 licitovať medzi sebou. Takže, ale toto
35:41 je zaujímavé z toho pohľadu, že to by
35:42 mohol byť presne ten kompromis, o ktorom
35:44 sme sa bavili, že ktorý ešte treba
35:45 nájsť, že eh ako to urobiť eh zaujímavé
35:48 biznisovo pre obidve strany, že vlastne
35:50 na jednej strane toho toho eh
35:52 všeobecného používateľského agenta, tak
35:55 eh tam dajme tomu, že šetríš to, že
35:57 nemusíš scrollovať všetky tie weby a tak
35:59 ďalej, eh ale len kontaktuješ ako keby
36:01 ich eh agentov. Presne tak. a tí už majú
36:04 presne eh teda tie svoje eh informácie a
36:08 správajú sa zase podľa zadania toho buď
36:10 toho obchodníka alebo prevádzkovateľa
36:13 tej danej konkrétnej služby. A eh
36:16 povedzme, že ten výsledok, ktorý
36:18 poskytnú tomu druhému agentovi, tak nie
36:20 je taký, ktorý nie je presne taký, aký
36:23 by bol, keby si to ten tvoj agent
36:25 vyhľadal sám. Hej? Ale už je tam už je
36:27 tam troška ovplyvnený tým obchodníkom,
36:29 ktorý mu proste môže dať nejaké nejaké
36:31 zadanie, aby jednoducho eh to viac
36:34 vyhovovalo jeho biznis modelu a
36:36 povedzme, že maximalizoval profit z tej
36:38 potenciálnej transakcie. Hej. A a v
36:40 princípe akoby konečná verzia tohoto je,
36:42 že hypoteticky a veľmi hypoteticky by si
36:45 potreboval menej platforiem, lebo teraz
36:47 si predstavuju, že dnes keď si
36:49 reštaurácia, tak musíš robiť biznis s
36:53 dovozovou službou, lebo dovozová lebo
36:56 lebo tá dovozová služba je jediný
36:58 spôsob, ako vieš organizovať ten
37:00 logistický problém. Proste máš niekoho,
37:03 kto oni lebo oni zamestnávajú kuriérov,
37:05 ktorí eh a a sú centrálne miesto, kam
37:09 môže zmätený človek, ktorý iba chce
37:12 obed, ale vie, že chcem proste dneska
37:15 chcem rezeň, tak akoby viem, že sú štyri
37:18 služby v Bratislave. Otvorím nejakú,
37:20 napíšem rezeň a on mi ukáže, kde sú
37:22 akurát rezne. Ale hypoteticky eh ty by
37:25 si si ako reštaurácia iba vedel vystaviť
37:28 agenta veľmi jednoduchým spôsobom. opäť
37:30 veľmi jednoduchým akože, že sľubujú, že
37:33 jednoduchým spôsobom iba ho akože mať a
37:37 a potom máš niekoho, kto vlastne
37:39 sprostredkuje, že nemusíš mať tých
37:42 sprostredníkov, lebo ako toto je človek,
37:45 ktorý chce rezeň, hej? Haló. Eh, nejaký
37:48 robot začne kričať do toho ich
37:49 virtuálneho akože trhoviska, že že eh
37:52 objednávka na rezeň a ty, že áno. Eh,
37:55 odkiaľ? Eh, z Bratislavy, z z centra.
37:58 Tak tuto jasné vieme do pol hodiny to
38:00 máš D a zrazu nepotrebuješ toho
38:03 prostredníka. Oni keď sa dohodnú, že
38:05 áno, beriem to, hej, za 6,90. Má niekto
38:08 za 6,70? Nie, nemá nikto. Dobre, 6,90.
38:11 Eh, tak a potom, že mám objednávku z
38:14 centra Bratislavy za 6,90. Kto mi ju vie
38:16 doviesť? Hej. A dneska je to opäť, že že
38:19 zrazu by sa do toho procesu ako
38:21 hypoteticky vedelo, vedel by si mať viac
38:24 akoby obslužných mechanizmov, lebo
38:26 nepotrebuješ akoby centralizovať tie
38:29 platformy až tak veľa, ale je to je to
38:33 tak hypotetické, že nevieme, ako to bude
38:36 fungovať, nevieme ako nás tam zarobia
38:38 peniaze. Eh, jediné, čo vieme, je, že
38:40 potrebujete náš nástroj na to. Jediné,
38:42 čo vieme, je, že potrebujete LLMko,
38:44 ktoré my prevádzkujeme na našom serveri
38:46 a platí nám za to niekto veľa peňazí. To
38:48 to je to vieme, to je isté, hej? To je
38:49 to je OK. Ale všetko ostatné nejako bude
38:52 dobre, hej? Akože zrobíme, že by dobre
38:53 bolo.
38:55 A už som to počul veľakrát. Tak som taký
38:58 inak ja si úplne predstavujem ako tie
39:00 tie zábery eh z filmov o Wall Street,
39:03 ako niekto kričí, mám tu objednávku za
39:05 69,0 na rezeň. Ja, ja, ja dám 670. Aj ja
39:09 kupujem, vieš a ako sa bijú tí agenti o
39:11 tú ponuku.
39:13 Áno, ale posledná vec k tomuto už
39:16 sľubujem. Ale to je to je inak zaujímavé
39:18 a to je veľmi dobrý veľmi dobrá analýza
39:21 tohoto od Bena Thompsona, ktorého často
39:24 akože spomíname, je, že ktorý spísal
39:28 vlastne akoby rozdiel od toho pôvodného
39:30 webu k tomu budúcemu webu obsluhovanému
39:34 agentami. Veľmi dobrú analýzu k tomu
39:36 napísal a a úplne som stratil nič.
39:41 Eh, ale on vlastne hovorí, že teraz musí
39:45 vzniknúť ten monetizačný moment. Proste,
39:47 že teraz sa musí musia rozmýšľať o tom
39:51 vlastne tí tvorcovia, ako pošlú peniaze
39:56 ďalej do toho ekosystému, že a sú
39:58 technické možnosti, ako to vieš
40:00 vyriešiť, ale proste, že teraz je ten
40:02 moment, kedy kedy to akože musia
40:05 spraviť.
40:06 Čiže odporúčam toho Thompsona. Je to
40:09 naozaj akože veľmi eh veľmi trefná
40:12 analýza toho toho momentu, v ktorom sme.
40:15 Čiže
40:16 eh tie tri veci opäť decoder eh s šéfmi
40:22 eh Googlu a Microsoftu, teda CTO
40:24 Microsoftu a Bena Thompsona eh o o tomto
40:28 momente. Eh dúfam, že sa mi to podarí
40:30 zalinkovať všetko. eh ten tento ras eh
40:35 ale akože dôležité veci sa stali na
40:38 internete tento za za akože že pre
40:42 budúcnosť. Dobre, sľubujem eh dosť o
40:46 veľký veľkých platformách. Poďme
40:54 [Hudba]
40:56 ďalej. No takže eh poďme do vesmíru. Tej
41:00 umelej inteligencie už bolo celkom dosť.
41:02 Eh, ja som dneska chcel rozprávať o
41:04 maskových plánoch ohľadom Marsu. Akurát
41:07 teda, že nám troška urobil škrt cez
41:09 rozpočet, lebo on si najprv naplánoval
41:10 teda, že bude o tom rozprávať eh zhodou
41:13 okolností v ten istý deň, čo mal eh
41:15 znova letieť Starship. Potom to
41:17 presunul, že Adame to až po tom lete
41:20 rakety a potom sa zľahla zem. Hej. Takže
41:23 eh nakoniec to nebolo, ale aj ten
41:25 samotný LED bol zaujímavý. O Marse si
41:28 porozprávame nabudúce. Eh, mňa hlavne
41:31 zaujalo to, že ako sa zase šíri ten hejt
41:36 na Ilona Maskách, lebo mu proste zase
41:38 prdla raketa. Hej. Ale a počkaj, len
41:40 povedz, čo sa stalo. Čiže oni mali
41:42 testovací LED z tej veľkej rakety.
41:45 Deviaty testovací LED, eh, ktorý tí
41:48 poslední dva moc nevyšli. eh tam to eh
41:51 buchlo ako keby eh nepodarilo sa im
41:55 dostať eh do tých eh do tých fáz, ktoré
41:57 už predtým absolvovali, pretože predsa
41:59 len vždy každým tým letom chceš sa
42:01 trošička ďalej posunúť, hej? A eh tým,
42:04 že im to eh buchlo tá tá tá tá vrná
42:09 raketa, ten samotný Starship eh už na
42:13 eh na vlastne na obežnej dráhe, tak eh
42:17 vôbec sa ani ako keby nedostali k tomu
42:18 pristávaniu pri tých posledných dvoch
42:20 dvoch letoch poriadne a bral bolo to
42:23 akože vníman negatívnejšie ako obvykle.
42:26 Hej. A ešte ešte a iba Starship je tá
42:30 raketa, ktorú chce poslať na Mars. Hej?
42:32 Akože to je toko. Presne. Presne tak.
42:34 Čiže to to je Starship je najväčšia
42:36 raketa na svete. Eh, je dvojstupňová. To
42:39 znamená, že na vrchu je tá raketka,
42:40 ktorá sa volá Starship. Zároveň sa to
42:42 celé volá Starship aj s tým spodným
42:43 stupňom, ktorý sa volá Superhe. Takže je
42:45 to úplne zrozumiteľné,
42:47 hej, pomenovanie ako ako vždycky. Eh,
42:51 veľmi eh veľmi eh ľahko vysvetliteľné
42:55 vysvetliteľné Lajkovi, že?
42:57 Ale tá starší vie teraz akože bez
43:01 nákladu. Oni akoby chcú ju dostať na
43:03 obežnú dráhu a naspäť na zem. Plus
43:05 mínus. To je ten cieľ toho, čo sa pokú
43:07 Áno. Ono je to v zásade zvnútra ešte
43:09 stále vykuchané. Eh je to ďaleko od
43:11 toho, aby si do toho mohol sadnúť
43:13 človek. Eh už nejaký náklad akože sa tam
43:15 dá dať, hej? Aj akože testujú ten
43:17 mechanizmus, ako cez to vypúšťať
43:19 satelity Starlink, čo im tiež mimochodom
43:21 zlyhalo pri tomto lete, lebo sa mi
43:22 dvierka neotvorili. Eh, takže akože
43:25 zlyhalo tam viac viacero vecí, ale už to
43:28 nebolo také zlé ako pri posledných
43:30 letoch. A naopak, bol tam jeden veľký
43:33 míľnik a to bolo opätovné použitie toho
43:36 prvého stupňa, čo je obrovský obrovská
43:38 raketa, ktorá sa volá Super Heavy. A
43:41 vlastne to bolo pri deviatom lete, už sa
43:44 im podarilo opätovne využiť jednu časť
43:46 rakety. Eh, dokonca aj 29 z 33 motorov
43:49 bolo z toho predošlého letu, takže eh to
43:52 bol akože veľký úspech. pre porovnanie
43:54 eh Falcon 9, čo je teraz ako keby taký
43:56 etalón kvality na tom trhu eh eh s
43:58 raketami, tak eh tam tú opätovnú
44:01 využiteľnosť skúšali až pri nejakom 32.
44:04 lete, takže po niekoľkých rokoch, čo bol
44:06 na trhu, hej? Tuto eh pri starší to
44:09 robia eh ešte predtým, ako vôbec
44:11 vyniesol prvý komerčný satelit, hej?
44:13 Takže tam vidíš naozaj ten akože veľký
44:16 eh posun, ktorý urobili a ktorý bol
44:17 umožnený tým, že už naozaj majú kopec
44:19 tých skúseností z Falconu 9, z tej
44:21 menšej rakety, ktorá ešte stále lieta.
44:24 Eh, no a napriek tomu to dostáva strašný
44:27 hejt. Eh, a akože do do istej miery áno,
44:31 pretože proste dostali sa predtým už aj
44:34 ďalej pri niektorých predošlých letoch a
44:36 dnes sa im zase nezadarilo. Eh, ale na
44:39 ale na druhú stranu je to také troška
44:41 naozaj nezaslúžené, že eh keby tam nebol
44:44 Elon Musk, tak eh tá verejnosť to vníma
44:46 úplne inak. Hm. Že proste zase je tam tá
44:50 stigma toho Maska. A preto aj dnes o tom
44:53 napríklad hovoríme, lebo eh aj aj na na
44:56 Discorde sme sa bavili, že že eh akože
44:59 dosť pri každej epizóde eh eh musíme
45:02 toho Maska spomenúť a dať tam nejaký
45:05 nejaký disclaimer pri ňom, ale naozaj
45:07 akože sú projekty Elona Muska, ktoré
45:10 treba pochváliť a SpaceX je jeden z
45:12 nich. akože to úplne jednoznačne. Oni
45:13 jednoducho ten raketový priemysel
45:16 posunuli za posledných 15 rokov úplne
45:18 niekde inde. Takže
45:21 Ale takto to úprimne neviem. Eh lebo
45:26 lebo ja som sa rozprával s s Walterom
45:28 Isaacsonom pred pár mesiacmi. On vlastne
45:31 písal, keď písal biografiu eh Maska a on
45:34 hovoril, že eh že a už to bolo vtedy,
45:37 keď ten Mask už začínal proste akoby sa
45:40 tak akoby opúšťať. eh okolo okolo
45:43 Twitteru a a on on mi vtedy hovoril, že
45:47 je to vlastne tak, že že ten Mask v tom
45:50 SpaceXe akože naozaj určil ten tón, že
45:54 že bude to vybuchovať a v princípe nám
45:56 to nevadí, hej, že že on akoby že s tým
45:58 to začal. zá ten takzvaný interatívny
46:01 dizajn, že proste eh oni nejdú ako NASA,
46:04 že proste roky, roky roky niečo robia a
46:06 potom na prvú dobrú to musí vypáliť eh
46:08 tak ako má. Ale oni jednoducho rátajú s
46:11 tým, že dnes tá raketa proste buchne
46:12 alebo nebuchne, hej? Nám ide o tie dáta
46:15 a čím ďalej sa dostaneme pri tom lete,
46:17 tým viac dát nazbierame a tým je väčšia
46:18 šanca, že ten ďalší dizajn eh bude zase
46:21 lepší. Napríklad pri tom aktuálnom lete
46:23 vlastne tam boli eh dva predošlé
46:25 neúspechy, kde im to proste eh niekde od
46:28 motorov buchlo eh na tej obežnej dráhe a
46:31 oni zistili, že majú tam nejaké
46:33 problémy, adresovali ich, ale nie úplne.
46:36 Musk už pred dool letom hovoril, že máme
46:37 to vyriešené asi na takých 80%, ale aby
46:40 sme to vyriešili na 100%, tak my budeme
46:43 musieť upraviť, my my musíme upraviť
46:45 ešte aj dizajn samotných motorovm a to
46:47 proste teraz ešte nemajú, hej? Oni
46:49 pracujú na ďalšej verzii toho motoru.
46:51 Takže už pred tým letom bolo jasné, že
46:53 je tam akože dosť slušná šanca na to, že
46:55 to proste znova buchne pre ten istý eh z
46:59 tých istých príčin, ale aj tak do toho
47:00 letu išli, hej, lebo proste eh bola to
47:03 ďalšia príležitosť naszbierať dáta aj
47:05 pre inú oblasť, ako len túto špecifickú
47:08 problémovú. Ale potom teda akože ten
47:10 Isaacson hovoril a on chodil s tým
47:13 maskom do toho Spacic, on chodil na tie
47:15 stretnutia, že on akoby určil tón ako sa
47:18 tá firma správala. Zároveň ale bolo
47:21 vychádzalo veľa správne presne v
47:24 momente, keď akoby prebral mask Twitter
47:26 a začal tam robiť akoby tie tie rýchle
47:28 zmeny, ktoré hovorili, že eh a to boli
47:31 insideri vlastne z jeho okru, ktorí
47:33 hovorili, že eh Space X funguje dobre
47:36 kvôli tomu, že sa naučili akože
47:38 handlovať maska, že že on tam došiel a
47:41 mal nápady a chcel strašne veľa vecí a
47:43 že oni mali okolo neho postavený tím
47:45 ľudí, ktorí ho akože došiel a že vedel
47:47 vždy zohnať peniaze a vedel vždy urobiť
47:49 okolo toho akoby dobre PR, ale že tie
47:52 nápady, ktoré mal akoby také tie, že
47:55 vyriešme to takto, takže tam boli takí
47:57 tí ľudia, že že jasné, starka, už si poď
48:01 oddýchnuť, hej? Akože taký ten ten,
48:03 vieš, že že eh ten ako že tuto ho
48:08 upraceme a povieme mu niečo, aby bol
48:09 spokojný a odišiel. A vôbec netuším. Ja
48:11 eh nevidím do toho dosť, aby som vedel,
48:13 že ktorá z týchto dve vôbec ste
48:15 pravdivá. Môže byť, lebo napríklad eh ja
48:16 som ešte nečítal túto knižku od Isaona.
48:19 Bohužiaľ som sa k tomu nedostal a ani
48:20 som veľmi nemal chuť z práve z
48:23 prirodzených dôvodov. Ale ja som týka eh
48:25 čítal knihu ešte od eh Ashle. Hm.
48:29 Nespomeniem si naozaj teraz meno. Jedna
48:31 veľká biografia, ktorá o ňom vyšla ešte
48:33 roky roky dozadu. Veľmi dobrá. Eh
48:36 odporúčam. Eh, bohužiaľ to bolo ešte
48:38 spred tej doby, keď mu preplo, ale o to
48:40 lepšie sa to o to lepšie sa to čítalo.
48:43 Ale vlastne eh z toho naozaj vyplýva,
48:46 ale aj z aj akože z ďalších eh kníh,
48:48 ktoré vieme o SpaceX, že Mask mal naozaj
48:50 spočiatku obrovský akože vplyv eh po tej
48:52 technickej stránke. On on proste ehm
48:55 myslím, že aj dodnes je ešte stále akože
48:56 aj oficiálne aj technický riaditeľ a eh
48:59 naozaj on tlačil na rôzne konkrétne
49:01 technické riešenia a jednoducho hm tá
49:04 kultúra nastavená bola taká, že
49:05 jednoducho hm nemôžeš povedať nie.
49:08 Jednoducho musíš skúmať ako to urobiť
49:10 tak, ako to on chce napríklad. Hej. Eh,
49:14 no a akože to bolo v tých prvých rokoch
49:17 kľúčové a presne to ako hovoríš, že oni
49:19 sa naučili handlovať eh maska, tak eh to
49:22 je vlastne niečo, čo presne tým časom
49:24 prišlo, ale zároveň tam je eh jeden
49:28 podstatný nieže detail, ale akože
49:31 kľúčová záležitosť, že SpaceX a eh tam
49:34 je eh operačná riaditeľka eh Gwin
49:37 Chotwell a vlastne ona je ten kľúčový
49:40 človek druhý hneď po Maskovi.
49:43 ktorá zabezpečuje vlastne ten každodenný
49:47 beh. Eh, naozaj to, aby tá spoločnosť eh
49:51 žila a fungovala tak, ako má. A to je
49:54 práve tá kľúčová časť toho, že ako sa
49:57 SpaceX vlastne eh naučil handlovať eh
50:00 Maska, že skrz win. Proste, pretože inak
50:03 eh je dosť možné, že proste by to nikdy
50:06 nemohlo fungovať. Ona bola jedným z
50:08 prvých zamestnancov, takže eh ona bola
50:11 naozaj ten kritický človek eh ktorý to
50:14 celé umožnil. A dnes naozaj proste ako
50:18 keby tá firma si vie zobrať z maska to
50:20 dobré, tú eh tú určitú eh firemnú
50:24 kultúru, ktorá je úplne odlišná od
50:26 zvyšku toho eh eh zastaraného trhu. Eh a
50:31 zároveň eh to je niečo vedia si zobrať
50:34 aj tie nejaké technické nápady a eh
50:36 eh riešenia idey a filozofiu, ktorú mák.
50:40 Eh, ale zároveň proste eh to nestojí len
50:43 na ňom a je to naozaj o tých proste o
50:45 tých inžinieroch a o tých pracantoch, čo
50:47 proste tam nonstop šľapú na tom, aby
50:50 napríklad eh ten super Heavy mohol druhý
50:52 raz letieť už po nejakom mesiaci alebo
50:54 po pár týždňoch a nie po roku, ako to
50:57 bolo pri eh prvom Falcone 9, keď ho
50:59 opätovne využívali, hej? Takže to sú
51:01 naozaj tie zásadné rozdiely, ktoré
51:04 napríklad oproti Twitteru, hej, keď tam
51:06 prišiel jednoducho, tam nikto nebol, že
51:08 by prišiel do tej firmy s tým, že ja
51:09 chcem pracovať pre Maska, hej, tam
51:10 jednoducho Musk prišiel a teraz oni sa
51:12 dostali do takej situácie, s ktorou
51:14 absolútne nerátali ani tí zamestnanci,
51:16 hej, že kompletná zmena firemnej kultúry
51:19 a tak ďalej, takže to v podstate mohlo
51:21 dopadnúť iba zle.
51:23 Hej. No a akože asi aj dopadlo ešte
51:27 vychádzali tie správy a a vidíš, že
51:29 takto,
51:30 že asi treba dôslednejšie oddeľovať tú
51:33 technickú prácu a to, čo Musk robí a ako
51:36 sa správa posledné akože posledný rok
51:39 povedzme. Eh, lebo tak už tam vidíš ako
51:43 pomerne nejaký jedzonačný úpadok. Ale
51:46 tam treba akože naozaj rozlišovať to, že
51:49 eh tie firmy nie sú iba MASK, hej? Eh,
51:51 ono sa to tak môže zdať, lebo predsa len
51:53 on a jeho ego a eh, to aká je v podstate
51:56 ako keby eh značka a tvár tých
51:58 spoločností, ono sa to veľmi ako
51:59 generalizuje, že toto teraz robí Elon
52:02 Musk a v skutočnosti proste to sú stovky
52:04 a tisícky ľudí, ktorí na tom na pozadí
52:06 eh pracujú a ktorých to je primárna
52:08 zásluha. A to je podľa mňa ten rozdiel,
52:11 že že kým Tesla ani SpaceX asi ani
52:15 Neuralink nie je Elon Musk, tak Twitter
52:18 je podľa mňa Elon Musk. akože Twitter je
52:20 akože, že tam má on tam najmenej
52:25 filtrovanie vidíš to, ako on si praje,
52:27 aby boli tie veci moja interpretácia
52:29 akože, že že lebo lebo presne ak si
52:33 opísal, že došiel tam, vyčistil si to
52:35 tak, aky to bolo podľa neho a teraz je
52:37 to riadené podľa jeho predstáv o tom,
52:38 ako má vyzerať sociálna sieť a nemal tam
52:40 silný akože t ten manažment, ktorý tam
52:43 bol, ktorý akože sa tam pokúsil ostať a
52:46 nejak to manažovať podľa nejakých ý
52:49 akoby nejakých akože brzd, hej? Eh, tak
52:52 eh je preč. Eh, ostal tam možno jeden
52:55 človek z tých akože pôvodných alebo z
52:57 takých tých akože extrémne silných. Má
52:59 tam vlastne svoju svoju prevádzkovú
53:01 riaditeľku, ale vidíš, že proste tam že
53:05 to je nadizajnované podľa jeho potrieb,
53:08 hej? A a z toho ti a vyšlo strašne veľa
53:11 takých tých anekdót, jak on proste volal
53:13 nejakým eh nejakým akože eh radovým
53:16 inžinierom, že prečo eh tuto má akože
53:19 menší engagement ako niekto iný. Hej?
53:21 Pomerne dobre overené správy, opakované.
53:23 Čiže vidíš, že že tam tam je to veľmi
53:27 nefiltrovaný ten jeho eh ten jeho vplyv
53:29 a asi aj ten jeho akoby jeho chcem
53:33 hovoriť, že úpadok, ale akože ten to, čo
53:36 sa mu stalo v tých v tých v tom
53:37 poslednom roku. No hej. Eh ono keď si
53:39 zoberieš eh ten eh ten ex, tak je to ako
53:43 keby eh
53:46 najprimitívnejší produkt eh z jeho
53:49 portfólia, že naozaj tam nie sú žiadne
53:51 komplikované technologické výzvy. Tá
53:53 najväčšia technologická výzva XK je
53:56 vlastne to, že začali vyvíjať umelú
53:58 inteligenciu, hej? Ale akože to teraz
54:00 robí každý, hej? To to nie je nič
54:02 špeciálne, ale tá samotná služba, ten
54:04 základ, tá sociálna sieť, tak to je to
54:06 je proste ITčkárska záležitosť, kde on
54:08 si presne povie, že eh ako keby nerieši
54:11 technické problémy, ale hlavne rieši tú
54:14 filozofiu, ako to má fungovať, hej,
54:15 ohľadom algoritmu, ohľadom odporúčania,
54:17 ohľadom typu obsahu, ohľadom faktickingu
54:19 a tak ďalej. A to a presne tam sa
54:21 najrýchlejšie eh pretaví tá jeho
54:23 filozofia, to, čo on chce, ako to chce
54:25 urobiť. A eh potom už len eh akože
54:30 zbierame to ovocie. Len tam vidíš aj
54:32 tých 1000 iterácií, ktoré to malo, vieš,
54:34 lebo Xko už malo byť finančný produkt,
54:36 už malo byť všetko apka, už malo byť AI
54:39 appa, už malo byť audio apka chvíľu, už
54:42 má akože už to malo byť toľko vecí a
54:45 stál a a v princípe stále to má byť
54:47 toľko vecí, hej.
54:48 Áno, áno, áno. Ale ale v princípe stále
54:50 je to akože eh zvláštne zabagovane
54:54 fungujúci eh akože eh eh eh pravicovejší
54:58 Twitter. Ani nie, že pravicovejší,
55:01 radikalizovanejší Twitter. Takže
55:04 eh keď sme pri tom eh v zásade, keď sa
55:06 rozprávame o AI maskeovi a v eh
55:11 radikalizácii, tak čo je to za správu s
55:14 tým s tým telegramom? Ako jak to čítaš?
55:18 Leo predstav si, že sa spojí eh Elon
55:21 Musk v jeho dnešnej podobe s Xkom a
55:24 spojí sa Pavel Durov eh s jeho
55:27 telegramom, ktorý je u nás akože braná
55:29 do sveta konšpirácií, hej, a ohlásia
55:32 partnerstvo, hej, tak to sa vlastne
55:34 zhodou okolností akurát dneska stalo
55:36 tento týždeň eh, keď nahrávame. A eh v
55:40 praxi to vyzerá tak, že teraz Grock, čo
55:42 je umylá inteligencia od XK vlastne
55:45 akože dnes už je to oficiálne akože
55:46 samostatná spoločnosť XAI, ktorá
55:49 oficiálne vlastní eh Xko sociálnu sieť,
55:52 bla bla bla, tak vlastne uzavrela
55:54 partnerstvo s telegramom a v
55:58 Telegramovej apke tento leto má
56:00 pribudnúť natívna integrácia Groka, čiže
56:03 eh bude prepletený tou aplikáciou, budeš
56:06 tam môcť robiť všetko možné. proste
56:08 budeš ho mať eh pripnutého v
56:10 konverzáciách napríklad, budeš sa
56:12 môýtať, budeš ho môcť používať na
56:14 odpoveď a nebudeš ho môcť používať
56:15 dokonca na fact checking. Eh že
56:18 napríklad si dáš, aby ti preveril nejakú
56:20 správu, ktorú si čítaš na nejakom
56:22 kanáli, čo akože dobrý nápad. OK. Na
56:25 druhú stranu, keď ti fakt čekuje správy
56:28 chatbot, ktorý šíri konšpirácie o
56:30 genocíde bielych v Juhafrickej republike
56:33 a spochybňuje obete eh počet obetí
56:35 holokaustu, tak eh a to sú ešte dve
56:38 zaujímavé veci, že ako toto vlastne
56:40 bude, lebo lebo tá Grog je veľký model,
56:44 čiže ten nemôže bežať lokálne na tvojom
56:46 telefóne. Čiže on vlastne akoby to end
56:49 to end šifrovanie v momente, keď je v
56:52 miestnosti Grock je veľmi akože eh
56:55 zvláštny koncept. Možno to majú
56:57 technicky vyriešené, neviem si
56:58 predstaviť ako, ale akože nie dneska aj
57:01 v Messengeri máš už zapracovanú umelú
57:03 inteligenciu, vo WhatsApp a tak ďalej.
57:05 Akože meta robí presne to isté. Eh, tuto
57:07 to len bude ako keby riešiť externý
57:09 partner, takže tam akože zase zásadný
57:11 problém nevidím. Eh, ale tak ešte
57:14 dopoviem, že eh čo to znamená pre
57:16 Telegram napríklad. Eh, tak eh vlastne
57:19 Elon Musk zaplatí 300 miliónov Pavlovi
57:23 Durovi za to, že vlastne toho Groka
57:25 dostane do Telegramu. Eh, nie je to
57:28 naopak, že teraz eh Telegram on nevyvíja
57:30 umelú inteligenciu a teraz, že by ako
57:31 keby zaplatil niekomu, aby eh aby tuto
57:35 tieto super tutifuti funkcie mohol
57:37 ponúknuť. Eh, naopak, Mask mu dá 300
57:40 miliónov. kombinácia cash a equity, čo
57:43 je vlastne ako keby podiel spoločnosti
57:46 Xai. No a eh do toho ešte budú mať aj
57:52 podiel na eh príjmoch z predplatného na
57:55 Groka. Čiže keď si niekto cez Telegram
57:57 eh kúpi prémiovú verziu Groka, tak 50%
58:00 príjmu pôjde Telegramu. Ty si z hlavy
58:02 pamätáš, či tento biznis partner ešte
58:04 stále je vo francúzskom väzení alebo už
58:06 ho pustil?
58:08 ešte nie vo väzení, ale vo Francúzsku a
58:10 musia schvaľovať, keď chce niekde otiť
58:12 krajinu. Akurát teraz akurát dneska
58:13 alebo kedy avizoval, že bude čoskoro
58:15 zase eh niekde v Dubaji, kde oni majú
58:17 centrálu. Eh, no ale no ale eh ešte by
58:20 som ešte by som doplnil eh, že eh prečo
58:24 je to vlastne pre Maska zaujímavé, tak
58:27 to je vlastne fakt, že Telegram, aj keď
58:29 eh u nás eh je tiež akože minoritný, tak
58:33 eh v skutočnosti Svetovo má cez miliardu
58:35 používateľov, teda ešte viacej ako XCO.
58:38 Čiže eh Grock sa tým pádom dostane eh k
58:41 oveľa väčšiemu počtu používateľov a ako
58:45 samostatná služba eh odtrhnutá od eh
58:48 sociálnej siete X eh si otvorí nový
58:51 veľký trh, na ktorom bude môcť spôsobiť.
58:53 Posledná vec, ktorá ma zaujíma a to už
58:55 je to už možno naozaj mám na sebe akože
58:57 tú alobalovú čapicu je, že ja si pamätám
59:00 pred pár týždňami sme sa o tom
59:01 rozprávali, ale potom sme to ako
59:03 nezaradili, lebo to bol taký taká
59:04 čiastková téma akože sme si od povedali,
59:07 že že počkajme s tým bola myslím si, že
59:11 to mala eh neviem už nájdem to, že kde
59:14 bol pôvodný ten zdroj tej informácie
59:17 spravodajskej, ale v zásade ide o to, že
59:20 eh akoby vyšli správaj informácie o tom
59:24 alebo teda informácie o tom, ako sa
59:27 akoby vplyvové operácie eh ruskej nie
59:32 tajnej služby, ale akože že ruské
59:34 vplyvové operácie sa rozširujú vlastne
59:36 tak, že začali vyrábať hrozne veľké
59:39 množstvo eh AI tvoreného ale
59:41 syntetického obsahu, ktorý bol určený na
59:44 to, aby akoby tie tie umelé
59:46 inteligencie, ktoré bez filtru žujú
59:49 všetko, aby zjedli viac akože akože
59:53 falošných naratívov, ktoré proste akože
59:55 iba umiestnili na nejaké stránky veľmi
59:57 roz a mňa prvé, keď si keď akože sa
60:00 pozriem, že že ako správy o telegrame,
60:04 ktorý je týmto eh na Slovensku akože
60:07 presiaknutý, takže lebo ty v zásade tým,
60:10 že toho Groka tam pustíš, on bude tam
60:12 poskytovať služby, ale rovnakým dielom
60:15 on bude brať
60:16 informácie ako trénovaciu vzorku, ale
60:20 ako čiže predstav si, že sa umy
60:22 Inteligencia učí na slovenskom
60:24 telegrame. Hej.
60:27 Čiže máš úplne to to je vlastne zhrnutá
60:28 tvoja myšlienka teraz. Áno, áno, áno.
60:30 Čiže rozmýšľam, že či to, že v zásade,
60:33 že či to nie je akože backdoor pre
60:35 proste akože Telegram a Grog Brad to you
60:38 by FSB, vieš? Čiže akože
60:41 eh ja len ja len doplním, že to, o čom
60:44 hovoríš, o tej správe, tak to bola
60:46 vlastne eh volá sa to AI poisoning, že
60:49 vlastne ako keby otravuješ tú menú
60:51 inteligenciu nejakými tými eh svojimi
60:54 dátami. A tam bola reč o eh sieti
60:58 webstránok eh na oko spravodajských eh s
61:01 príznačným názvom Pravda.
61:04 A tam sa vlastne ukázalo tie stránky. To
61:07 bolo množstvo stránok s obsahom, s
61:09 článkami, ktoré eh cielili na eh viac
61:14 ako 80 krajín a regiónov vrátane
61:16 Slovenska eh ktoré zverejňovali čom
61:19 prokremelské naratívy a tak ďalej. A tam
61:22 sa vlastne ukázalo, že s najväčšou
61:24 pravdepodobnosťou tie weby neboli
61:26 vytvorené na to, aby eh generovali
61:30 návštevnosť, ale boli vytvorené práve na
61:33 to, aby ich kouovali eh
61:37 eh zberači proste dát pre umelú
61:40 inteligenciu alebo tieo alebo tá samotná
61:43 umelá inteligencia a chatboti a tak
61:44 ďalej a čerpali z nich informácie a
61:47 dávali do toho dátového setu a začali
61:49 preberať eh tie prokremelské náraty.
61:52 že úplne úplne bez toho, úplne pod
61:54 prahovo, aby eh oni nejako okato šírili
61:56 svoju propagandu. Eh tak proste tak
61:59 podvedome sa dostávali do pozadia tých
62:02 chatbotov, aby eh potom eh
62:05 legitimizovali tie svoje naratívy, keď
62:07 sa ľudia budú na ne pýtať, tak aby tie
62:09 odpovede boli trošička prifarbené smerom
62:11 do
62:13 Kremľa. OK. No tak a a a a tam a tam je
62:17 naozaj, keď si zoberieš eh že ako
62:20 vynaliezaví vedia byť Rusi po stránke
62:22 tej propagandy eh pokiaľ ide o eh ten
62:25 digitálny priestor a potom si to
62:27 porovnáš naozaj eh s tým imidžom, aký
62:29 majú na bojisku, že proste, že áno, eh
62:32 šupáci nič nevedia, chodia na eh 60
62:35 tankoch a bla bla bla na bicykloch a tak
62:38 ďalej, že proste to je ako deň a noc,
62:40 hej. Hm. ťažko zlúčiteľné akože tie tie
62:43 dva
62:45 svety. Hold eh keď sme pri ťažko
62:49 pochopiteľných veciach. A ešte poslednú
62:51 vec sme zabudli pri
62:53 Maskovi. Eh, spomínali sme minule ten
62:56 Starlink, že už v okolitých štátoch
62:59 ponúka eh hardvare zadarmo, tak sme to
63:03 predpovedali a už je to aj na Slovensku,
63:05 takže dlho sme čakať nemuseli. Eh,
63:08 bavili sme sa minule o tom balíku eh
63:10 Residential Light za 30 € a za 35.
63:15 Eh, eh, na ten sa to nevsťahuje. Eh,
63:17 sťahuje sa to na balík residential. eh
63:20 štandardný, ktorý stojí 50 € mesačne,
63:23 ale teda už si k nemu nemusíte dokúpiť
63:25 eh za svoje 350 € hardvé, ale pokiaľ sa
63:30 upíšete na ročnú viazanosť, tak ho
63:32 dostanete zadarmo. A to už a to už sa
63:35 vyplatí. Hej. A čo čo je inak ako potom
63:38 keď si to spriemeruješ, tak môžeš urobiť
63:40 to, že na rok si na rok si zoberieš tú
63:44 drahšiu verziu, dostaneš hardvare a
63:45 potom po roku to môžeš, ak budeš prejdeš
63:48 na light a v zásade si to spriemeruješ a
63:52 eh bude to meno je dobrý typ naozaj, že
63:55 keď keby si chcel eh že ti stačí light,
63:58 tak eh v súčasnej dobe, pokiaľ hm nejdeš
64:01 gamblovať s tým, že ešte chvíľku počkám
64:03 a možno sa to bude sťahovať aj na light,
64:05 tak môžeš si kúpiť proste ročné
64:07 predplatné štandardného eh paušálu a eh
64:11 vidie ťa to finančne po tom roku lepšie,
64:13 ako keby si kúpil eh lacnejší light, ale
64:16 musel si platiť hardvée. Presne tak. Eh,
64:19 dobre, posledná vec už iba na krátko,
64:22 lebo lebo sme sa zamotali eh teda mojou
64:25 vinou v tej v tých LMkách, ale ten eh
64:28 vyšla správa neuveriteľným spôsobom
64:31 podaná eh o tom, že Open AI si kupuje
64:35 firmu Johnnyho Ivea. Eh teda Johnny Ive
64:39 je akože dizajné Applu, ktorý stoval za
64:43 proste ikonickými, naozaj ikonickými
64:45 produktami ten klasický ten ikonický
64:48 iPhone 4. Tak to je akože Johnny Ive.
64:50 Myslím si, že veľa MacBookov bolo Johnny
64:52 Ive. Proste, že naozaj, že že pr Johnny
64:55 Ive je dizajnová legenda proste v svete
64:58 techniky. Veľmi známy dizajner. eh,
65:01 ktorý ale už mnoho rokov nenadizajnoval
65:05 akože nič v zásade úspešné, hej? Aj v
65:09 Apple sa aj s Apple sa akože v zlom
65:10 rozišiel. eh v zlom, no proste
65:14 akože je odišiel odtiaľ nespokojný,
65:18 takto to povedzme, a založil si vlastnú
65:20 firmu, eh, ktorou ktorá teraz akože
65:23 nevieme veľmi, čo robí a hovorí, že
65:25 robíme prevratný AI produkt, ktorý
65:28 nepovedia, aký je, nepovedia, čo to je,
65:31 nepovedia, čo to bude robiť, ale je to
65:32 je to prevratná vec, ktorú chce sám
65:34 Altman začať vyrábať, myslím, že v
65:37 27 alebo že 26 27 je plus mínus akože,
65:41 že odhad kedy by to malo byť na trhu
65:42 hovorí, že sa toho predajú stovky
65:44 miliónov proste kusov a a Johnny IF to
65:48 nadizajnuje a čož celé bude dobre. Čiže
65:51 Open AI kúpila tú firmu Johnnyho Iva za
65:53 6 miliárd $. Je to firma, ktorá má jeden
65:56 rok, nemá produkt, má iba Johnnyho Iva a
66:00 akože, ktorý ja to nerád hovorím, ale
66:02 akože, že roky neurobil akože tú vec,
66:06 ktorú on robieval, tak už roky sa mu to
66:08 nepodarilo v rôznych prostrediach
66:10 zreplikovať. Keď sa na to pýtal Nilai
66:14 Patel eh Sundara Pičaja, lebo akože to
66:18 sa udialo, ako oni mali ten rozhovor,
66:20 tak vyšlo to oznámenie, teda šéf Googlu
66:22 a ten ten on je hrozne suchý. Ten ten
66:25 Sundar je strašne nudný človek.
66:27 Proste extrémne ešte aj nabriefovaný
66:29 tými právikmi. Ten rozhovor bol
66:31 prekvapivo akože obsažný, ale on je
66:33 hrozne nudný. A on akože zaglosoval to,
66:36 že že pozrite sa, že že čo si myslíte na
66:40 to, že Johnny Ive sa spájajú soup úplne
66:42 jaj a že no musím vám povedať, že akože
66:46 sa tešíme na to, čo eh ten legendárny
66:49 dizajné asi dvoch produktov urobí.
66:52 proste taký shade akože hrozný, že eh
66:55 ale akože eh nikdy nehovor nikdy. Eh
66:59 lebo toto môže byť presne ten eh pičajo
67:01 moment eh Balmerovský, že keď keď eh keď
67:06 vychádzal prvý iPhone a proste oni mu
67:07 robili pohreb, hej, a potom eh strašným
67:12 spôsobom zakapali na mobilom trhu. Tak
67:14 eh
67:16 ja ja mám ale iný problém. Ja nemám
67:18 problém toho, že že oni že keď ti eh
67:21 Johnny IF sľubuje tretie zariadenie,
67:23 teda niečo, čo nie je telefón, niečo, čo
67:25 nie je laptop, tak si jediné, čo môže
67:28 sľubovať, je nejaký AI pin, ktorý má
67:30 všetky problémy, ktoré mali všetky tie
67:32 AI piny. Proste problém interný bude
67:35 krásny, mám problém interakcie a bude
67:37 strašne drahý a a na rozdiel od všetkých
67:39 ostatných tých vecí nebude naviazaný iba
67:42 na jeden produkt, lebo neurobíš niečo,
67:44 čo sa môže rozprávať s konkurenčným
67:46 LLMkom. Čiže, že musíš byť technický
67:50 líder a a akože produkt dvoch produktov.
67:53 Ťažká vec. A a zároveň to konkuruje
67:55 telefónu, ktorý už každý má a ja neviem,
68:00 čo môžeš postaviť. A zároveň povedali,
68:02 že to nie sú
68:03 okuliare. Čiže nie sú to okuliare, nie
68:06 je to telefón. Musí to byť nejaký AI pin
68:09 alebo nejaký druh senzoru, ktorý ktorý
68:12 sedí vedľa tvojho počítača, lebo ľudia
68:14 ešte budú roky budú používať počítače.
68:17 A nikto mi nevysvetlil, prečo to nie je
68:21 počítač alebo telefón. Hej, že väčšina
68:24 týchto AA vecí, ich problém je, že to je
68:27 apka v skutoč, že že prečo to nie je
68:29 apka táto vec. A neviem, čo môže Johnny
68:32 Ive urobiť a možno ma milo prekvapí, eh,
68:36 čo že čo bude kvalitatívne odlišné ako
68:40 mikrofónik napichnutý na telefón. Veľmi,
68:43 veľmi ma to zaujíma. V podstate jediné,
68:45 jediné, čo vieme, je, že to bude
68:47 hardvérový produkt, pretože Johnny Ive
68:49 je hardvérový dizajnéráno. A všetko
68:52 ostatné je otvorené. Hej.
68:54 Eh, ono presne tie eh AI Piny myslíš
68:57 napríklad tie tie škatulky teraz? Áno.
68:59 To čo bol humane, ktoré vyhorelo
69:01 šialeným spôsobom. Presne tak. Vlastne
69:04 eh tam je možnosť, že by išli týmto
69:05 smerom a robili to presne v tom štýle,
69:08 ako je aj v podstate zvyknutí, že eh je
69:10 nejaká technológia, ktorá má svoje muchy
69:12 a potom príde Apple a v tom momente,
69:14 kedy už to vie technologicky uchopiť
69:16 tak, aby to fakt, že šľapalo do veľkej
69:19 miery, povedzme. Hej. Eh a tým, že teraz
69:21 eh IV má ako keby partnera veľkého v
69:25 podobe Open AI, nie je na to, nie je na
69:27 to sám. Eh bez toho veľkého partnera by
69:29 to jednoducho nešlo. Eh tak sa môže ten
69:32 prístup pokúsiť zreplikovať a troška
69:34 ťašiť zo toho svojho mena a svojho
69:36 minulého prepojenia s Apple. Eh ale
69:38 akože takto na prvú signálnu mi to
69:40 nepríde ako dostatočné, hej. Eh a dúfam,
69:42 že to bude niečo iné. Dúfam, že to bude
69:44 na keď to takto hypujú, takže to bude za
69:46 tých 6 miliárd eh niečo iné ako priblbli
69:49 AI pin. Veľmi ťažko sa mi predstavuje
69:52 vec, ktorú urobíš, ktorá nie je s tými
69:55 sieťovými efektami, ktoré má Apple a
69:58 Google
69:59 zreplikovateľn skopírovateľná o rok ako
70:03 veľmi a aj keby to bol dokonalý
70:06 prevratný produkt, tak tie LLMk sú dnes
70:09 porovnateľné. Uhm.
70:12 Hardvérovo ti Google a Apple má kapacitu
70:15 vyrobiť veci lepšie, rýchlejšie a
70:17 kvalitnejšie, ako budem mať Open lebo
70:19 majú roky, najmä Apple má akože roky
70:23 vyladený ten akože tie tie tie tie
70:26 výrobné vzťahy. Čiže nie bude tam musieť
70:30 byť nejaký prvok v tom produkte, ktorý
70:32 nebude replikovateľný tak ľahko. Ale
70:35 akože aký? Ja ja to je to je tá vec,
70:38 ktorú akože preto my nemáme tých 6
70:40 miliárd, ale má ich Johnny Ive, chápeš?
70:43 Asi preto nemáme miliard. A uvidíme
70:45 teda, že s tým príde. No hej hej. Dobre,
70:47 však akože eh veľa šťastia teda Johnny
70:52 prajeme mu to, pokiaľ presie niečo, čo
70:55 zistíme, že bez toho nemôžeme žiť, tak v
70:57 podstate eh ako tegici budeme len radi.
71:00 Áno. A počkáme, kým to eh urobí niekto o
71:03 dva roky lacnejšie. Presne tak. Presne
71:06 tak. Lebo určite si to kupovať nebude.
71:07 Lebo prvú generáciu eh prístreal John
71:10 Ava si myslím, že ja ju budem kupovať.
71:13 Dobre, myslím si, že to je na tentokrát
71:15 všetko. Podcast Click vychádza každú
71:17 druhú sobotu. Prihlásiť na jeho
71:19 odoberanie si môžete vo svojej
71:20 podcastovej mobilnej aplikácii cez Apple
71:22 podcasty, Spotify, v Ja používam
71:25 Pocketcast na chytanie podcastov alebo
71:27 všade tam, kde sú dobré podcasty.
71:29 Nájdete aj klik. Všetky diely a odkazy
71:31 na témy, o ktorých hovoríme, nájdete na
71:33 adrese sme.sklik.
71:35 Ak sa vám ten podcast páči, môžete ho
71:37 ohodnotiť vo svojej mobilnej aplikácii.
71:39 Môžete nám poslať pripomienku, eh
71:41 napísať tamm na Discord alebo email na
71:43 klikneme.sk. Discord je najbezpečnejšie.
71:46 Ja už som sa vyhrabal z nejakých eh
71:49 eh takých akože náročnejšieho obdobia.
71:53 Eh také intermezo eh pred jeseňou, tak
71:57 sa tam už aj občas mihnem. Eh ale eh
72:01 snažíme sa ako ako sa dá. Eh, na forbe
72:04 podcastu Klik sa podieľa aj Tomáš Rybár
72:07 a Michal Jurík. Ja som Andrej Bupka. Ja
72:10 som Martin Hodas. Ďakujem.
72:12 [Hudba]