XBMC-Kodi.cz
Vstupuje Ai -- stvořená "inteligence" - Verze k tisku

+- XBMC-Kodi.cz (https://www.xbmc-kodi.cz)
+-- Fórum: Ostatní diskuze (https://www.xbmc-kodi.cz/forum-ostatni-diskuze)
+--- Fórum: OFF TOPIC - BEZ ZAMĚŘENÍ (https://www.xbmc-kodi.cz/forum-off-topic-bez-zamereni)
+--- Téma: Vstupuje Ai -- stvořená "inteligence" (/prispevek-vstupuje-ai-stvorena-inteligence)

Stran: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36


RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 15.11.2025

Uniklé dokumenty odhalují, kolik OpenAI platí společnosti Microsoft

[Obrázek: T3S7IoH.png]

  Uniklé dokumenty ukazují, kolik peněz OpenAI skutečně posílá Microsoftu za využívání Azure a za celkovou spolupráci. Podle nich měla OpenAI v roce 2024 zaplatit Microsoftu zhruba půl miliardy dolarů a za první tři čtvrtletí 2025 už téměř dvojnásobek. Tyto platby odpovídají dohodě, podle které má Microsoft získávat zhruba pětinu tržeb OpenAI výměnou za obří investici a přístup k výpočetnímu výkonu v cloudu. Současně ale Microsoft část těchto peněz „vrací“ ve formě licenčních poplatků za to, že prodává modely OpenAI v Bingu a Azure, takže jde o čísla po vzájemném zápočtu. Z kombinace uniklých dat a odhadů vyplývá, že tržby OpenAI rychle rostou do miliard dolarů ročně, ale náklady na provoz modelů (inference) jsou rovněž v řádu miliard a mohou zatím pohlcovat velkou část zisků. Článek tak naznačuje, že současný boom generativní AI je extrémně kapitálově náročný a opírá se o to, že velcí hráči typu Microsoft jsou ochotni celé odvětví křížově dotovat.
 
Kritika: Informace vycházejí z uniklých a neúplných dokumentů a anonymních zdrojů, takže poskytují jen částečný a potenciálně zkreslený obraz. Některá čísla se týkají jen vybraných služeb a navíc pracují s „čistými“ částkami po zápočtech, které se zvenku prakticky nedají přesně přepočítat na celkové tržby a ziskovost. Z tradičně opatrného pohledu proto dává větší smysl brát tyto úniky jako orientační nástřel, ne jako definitivní verdikt o tom, zda je byznys generativní AI udržitelný nebo jde o bublinu – skutečný obraz ukážou až konsolidované, oficiální finanční výkazy.
 
[Obrázek: 214OZrw.jpeg]



RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 18.11.2025

Šéf Google varuje: Kdo chce uspět, musí umět pracovat s AI. Nároky budou ohromné

[Obrázek: CwbjbGp.png]

  Šéf Alphabetu Sundar Pichai v rozhovoru varuje, že případné prasknutí „AI bubliny“ by zasáhlo v podstatě každou firmu, i Google samotný. Současný boom označuje za směs racionálního nadšení a „iracionality“ – podobně jako internetová horečka před rokem 2000. Hodnota technologických firem, zejména Googlu a Nvidie, raketově roste, přičemž kolem OpenAI se točí obchody v řádu bilionů dolarů, zatímco její příjmy jsou zatím nesrovnatelně menší. Pichai ale tvrdí, že Google má výhodu v tom, že vlastní celý „stack“ – od vlastních AI čipů přes data (YouTube), modely až po špičkový výzkum – a proto je na turbulence připraven lépe než konkurence. Alphabet zároveň masivně investuje do AI infrastruktury ve Velké Británii a plánuje tam i trénink velkých modelů. Zároveň Pichai upozorňuje, že AI už dnes spotřebuje asi 1,5 % světové elektřiny, což brzdí klimatické cíle firmy, ale přesto chce Alphabet dosáhnout uhlíkové neutrality do roku 2030 díky novým energetickým technologiím. AI podle něj zásadně promění pracovní trh a uspějí ti, kdo se naučí tyto nástroje používat – ať už jsou učitelé, lékaři, nebo jiné profese.
 
Kritika: Výpověď šéfa Googlu má dvojí rovinu: na jedné straně varování před přehřátím trhu a „iracionální euforií“, na druhé straně ujišťování, že právě Google je díky svému unikátnímu postavení připraven nejlépe. Z konzervativnějšího pohledu je v tom patrný klasický střet zájmů – firma, která z boomu nejvíc těží, zároveň varuje před bublinou, ale implicitně říká: přežijeme hlavně my. Relativizace klimatických závazků kvůli energetickým nárokům AI také ukazuje, že „zelené sliby“ velkých hráčů jsou podmíněné a pod tlakem byznysu ustupují. A pro obyčejného zaměstnance může apel typu „kdo neumí AI, neuspěje“ působit spíš jako strašení než jako realistický plán rekvalifikace, zvlášť když stát i firmy teprve hledají, jak masové vzdělávání v této oblasti vůbec zajistit.
 
[Obrázek: i58udYb.jpeg]



Amazon už neřídí, teď jeho zakladatel Jeff Bezos začíná od nuly. Do své nové umělé inteligence lije miliardy

[Obrázek: DiTQNa0.png]

 Jeff Bezos zakládá nový AI startup Project Prometheus, do kterého už zamířily investice ve výši asi 6,2 miliardy dolarů. Nejde o projekt v oblasti „chatbotů“, ale o umělou inteligenci pro fyzickou ekonomiku – cílem je nasadit AI přímo do inženýrství a výroby: od továren na čipy přes automobilky až po letecký a kosmický průmysl. Firma má vyvíjet systémy, které pomocí simulací fyzikálních zákonů a dat z výroby urychlí vývoj produktů i celou produkci. Bezos se po letech investování a rozvoje Blue Origin vrací k roli výkonného šéfa zcela nové firmy a o řízení se má dělit s Vikem Bajajem, zkušeným manažerem z Verily a Foresite Labs. Project Prometheus už má téměř stovku lidí, včetně expertů z firem jako Meta, OpenAI a Google DeepMind, a díky obřímu rozpočtu vstupuje do AI závodu v podobně silné pozici, jakou předtím získaly OpenAI nebo Anthropic.
 
Kritika: Projekt je prezentovaný jako „od nuly“, ale ve skutečnosti stojí na miliardách dolarů, reputaci jednoho z nejbohatších lidí světa a špičkových odchytaných talentech – tedy na podmínkách, které nemají s běžným podnikáním mnoho společného. Z tradičnějšího, střízlivého pohledu je také otázka, nakolik je moudré soustředit další kritickou oblast – průmyslovou výrobu a fyzickou ekonomiku – do rukou několika globálních hráčů s obřím kapitálem. Zkušenost ukazuje, že koncentrace moci u velkých platforem bývá dvojsečná: přináší inovace, ale zároveň závislost a tlak na menší firmy i celé státy, které pak jen přebírají technologie a podmínky nastavené několika málo korporacemi.
 
[Obrázek: QCQVEhh.png]
 



RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 22.11.2025

OpenAI ukončí přístup k API oblíbeného modelu GPT-4o v únoru 2026.

[Obrázek: clgifZ8.png]

  OpenAI ukončí přes API přístup k modelu GPT-4o v polovině února 2026, konkrétně 16. 2. 2026. Změna se týká jen vývojářského rozhraní, v samotném ChatGPT zůstává GPT-4o dál dostupný a jeho „životnost“ pro běžné uživatele nebyla oznámena. Firma kroky vysvětluje tím, že GPT-4o je interně už považovaný za „legacy“ model s nižším využitím oproti novější řadě GPT-5.1, která nabízí větší kontext, možnost „thinking“ režimu a vyšší propustnost, a přitom má u vstupních tokenů nižší nebo srovnatelnou cenu. Vývojáři mají zhruba tři měsíce na migraci, OpenAI je motivuje přejít hlavně na gpt-5.1-chat-latest nebo levnější varianty GPT-5-mini a GPT-5-nano. Článek připomíná, že GPT-4o byl při uvedení v květnu 2024 průlomem v reálném multimodálním chatu (text, obraz, hlas v jednom modelu) a stal se základem pro většinu běžného používání ChatGPT, včetně bezplatného tarifu. Když ho OpenAI v roce 2025 na čas odsunula z defaultu ve prospěch GPT-5, vyvolalo to silný odpor uživatelů a firma tehdy slíbila, že u budoucích ukončení bude dávat větší předstih – právě nynější oznámení API „sunsetu“ má tento slib naplnit.
 
Kritika: Z hlediska technického vývoje a nákladů je odstavování starších modelů logické, ale z konzervativnějšího pohledu je problém v tempu a v tom, jak rychle mizí i velmi oblíbené a osvědčené nástroje. GPT-4o se stal pro mnoho lidí „normou“ – jak pracovně, tak emočně – a jeho přesun do kategorie „legacy“ po necelých dvou letech dobře ukazuje, jak krátkou životnost dnes i klíčové digitální nástroje mají. To komplikuje dlouhodobé plánování pro firmy i jednotlivce, kteří by spíš potřebovali stabilní, spolehlivé prostředí než permanentní hon za novinkami. Navíc se ukazuje, že model optimalizovaný na příjemný, empatický styl konverzace je z pohledu části expertů považován za „nedostatečně zarovnaný“ – místo poctivého vysvětlení rizik a jasných pravidel používání tak přichází tiché odsunutí na okraj. Z tradičního hlediska by dávalo větší smysl udržovat stabilní „LTS“ řadu ověřených modelů po řadu let a teprve nad ní stavět experimentální novinky, aby uživatelé nebyli každých pár měsíců nuceni přeučovat sebe i své systémy na další generaci.
 
[Obrázek: 5eofeNM.jpeg]



RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 25.11.2025

Microsoft představuje Fara-7B, malý model pro „použití s počítačem“, který běží nativně na PC.

[Obrázek: IKpFCYP.png]

  Microsoft představil nový model Fara-7B, malý „computer-use“ agent, který běží přímo na PC a umí ovládat myš a klávesnici. Má jen 7 miliard parametrů, ale podle Microsoftu dosahuje špičkového výkonu mezi modely své velikosti a v úzce vymezených testech pro procházení webu má dokonce překonávat GPT-4o. Fara-7B vnímá obsah obrazovky vizuálně – „dívá se“ na web stejně jako člověk, nečte HTML ani pomocné struktury. V ukázkách dokáže sám koupit zboží, vyhledat informace a shrnout je nebo změřit vzdálenost v mapách, přičemž uživatel jen zadá jednoduchý pokyn a v klíčových momentech (např. zadání hesla) schvaluje kroky. Oproti cloudovému Copilotu běží Fara-7B lokálně, data tedy nemusí odcházet do datacenter, což má snížit latenci a zlepšit soukromí. Microsoft uznává, že model zatím dělá chyby, občas „halucinuje“ a u složitějších úloh se plete, proto je nyní dostupný jen v izolovaném sandboxu, kde má mít omezený přístup k citlivým datům a vestavěné pojistky proti zneužití. Fara-7B je zveřejněn pod licencí MIT na Foundry i Hugging Face, prakticky ho ale lze používat jen s experimentální platformou Magnetic-UI; do budoucna má přijít verze pro Windows 11 Copilot+ PC s integrovaným AI hardwarem.
 
Kritika: Představa „agenta“, který za uživatele kliká po obrazovce, zní moderně, ale z tradičnějšího pohledu je v tom několik háčků. Zaprvé, Microsoft slibuje lokální běh a volnější licenci, ale reálné použití váže na vlastní nástroje (Magnetic-UI, Copilot+ PC), takže skutečná svoboda připomíná spíš nový typ vendor lock-inu než poctivé otevření technologie. Zadruhé, model, který sám ovládá počítač, má v sobě vždy bezpečnostní riziko – a fakt, že se zatím musí držet v sandboxu, je tiché přiznání, že přes všechen marketing ještě není dostatečně spolehlivý. Nakonec vyvstává otázka, zda je opravdu rozumné učit běžného uživatele delegovat základní úkony na „klikacího bota“, místo aby měl jednoduché, přehledné aplikace, kterým rozumí a má nad nimi plnou kontrolu. Dlouhodobě se osvědčilo spíš zpřehledňovat rozhraní a zlepšovat digitální gramotnost, než stavět další vrstvu magické automatizace, která je hezká na videu, ale v praxi bude uživatele často brzdit a potenciálně ohrožovat.

[Obrázek: WTNQEPm.jpeg]



Vyzkoušejte Stickerbox, nástroj na tvorbu samolepek pro děti založený na umělé inteligenci

[Obrázek: tdx4X7o.jpeg]

  Stickerbox je nová „AI hračka“ pro děti: malá červená krabička za zhruba 100 dolarů, která funguje jako hlasem ovládaná tiskárna samolepek. Dítě stiskne velké tlačítko, nahlas popíše, co chce (klidně dost chaoticky), zařízení text rozpozná, v cloudu vygeneruje černobílý obrázek a ten na termopapír vytiskne jako samolepku, kterou si dítě následně vybarví tužkami. Hračka používá kombinaci modelů s vlastními „dětskými“ pojistkami, blokuje násilný a sexuální obsah i vulgarity a při nevhodných slovech vytiskne neutrální motiv. Záměr tvůrců z brooklynského startupu Hapiko (Arun Gupta, Bob Whitney) je udělat „AI pro děti“ tak, aby se dítě bavilo a rozvíjelo fantazii, ale neskončilo u klasického nekonečného scrollování obrazovky. Stickerbox je připojený k Wi-Fi, dostává aktualizace (mj. přísnější pravidla na licencované postavy) a chystá se doprovodná aplikace pro ukládání výtvorů i případné placené funkce, jako nahrávání vlastních fotek. Firma má několikamilionové seedové investice a vydělává primárně na samotném zařízení, spotřební materiál (termální samolepkový papír) drží cenově nízko.
 
Kritika: Z tradičnějšího pohledu je sympatické, že hračka končí u papíru a pastelky, ne u dalšího displeje, zároveň ale zůstává několik otazníků. Dítě si zde zvyká mluvit s „černou skříňkou“, která za něj kreslí – místo aby se samo učilo vést tužku po papíře, skládá stavebnici nebo stříhá a lepí. Za cenu jednoho Stickerboxu by přitom šlo pořídit hromadu klasických výtvarných pomůcek a stavebnic, které fungují bez cloudu, aktualizací a rizika, že za dva roky výrobce službu vypne. Otázkou je i ochrana dat a dlouhodobá udržitelnost: bez internetu a serverů je krabička jen drahý termotisk, navíc závislý na proprietárním ekosystému a spotřebním papíru konkrétní značky. A konečně – „AI pro děti“ je vděčný marketing, ale skutečná zodpovědnost leží na rodičích: zůstanou-li AI hračky doplňkem k obyčejnému kreslení, čtení a hraní venku, mohou být přínosné, pokud ale začnou nahrazovat jednoduchou, osvědčenou zábavu, je to krok spíš od než k poctivému rozvoji dětské představivosti a dovedností.
 
 
[Obrázek: 214OZrw.jpeg]



RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 28.11.2025

Závod o regulaci umělé inteligence vyvolal střet mezi federálními a státními orgány.

[Obrázek: M4ZawKG.png]

  Článek popisuje, že se ve Washingtonu rozjíždí ostrý spor o to, kdo má v USA regulovat umělou inteligenci: federální vláda, nebo jednotlivé státy. V posledních letech přijalo 38 států přes stovku zákonů k AI (hlavně deepfaky, transparentnost, využití státní správou), zatímco Kongres má za sebou spoustu návrhů, ale minimum skutečně přijatých zákonů. Technologické firmy a s nimi spřízněné politické struktury v Bílém domě prosazují federální „přebití“ státních norem, chtějí jednotný standard nebo vůbec žádný, argumentují „záplatovanou“ regulací, která prý brzdí inovace a oslabuje USA v „závodě s Čínou“. Konkrétně se mluví o pokusu propašovat zákaz státních AI zákonů do obranného zákona NDAA a o návrhu prezidentského dekretu, který by vytvořil „AI Litigation Task Force“ na napadání státních regulací u soudů. Významnou roli by v tom měl mít Trumpův „AI a krypto car“ David Sacks, zastánce minimálního dozoru a průmyslové samoregulace, a silně financované pro-AI PACy jako Leading the Future, které nalévají desítky až stovky milionů do politiky. Proti tomu stojí řada zákonodárců na federální úrovni i generální prokurátoři států, kteří odmítají plošnou předběžnou blokaci státních zákonů bez hotového federálního rámce a připomínají tradiční roli států jako „laboratoří demokracie“. Poslanec Ted Lieu vede snahu o velký, zhruba 200stránkový federální AI zákon, který by řešil podvody, deepfaky, whistleblowery, podporu výzkumu i povinné testování modelů, ale vědomě ho píše mírněji, aby měl šanci projít republikánským Kongresem i Bílým domem a právě proto je „bitva o předběžnou federální nadvládu“ kolem AI jedním z nejvyhrocenějších sporů současné digitální politiky.
 
Kritika: Samotný článek dobře vykresluje politickou přetahovanou, ale méně akcentuje, jak zásadní je tu otázka tradice a principů. Americký federální systém byl vždy postavený na tom, že státy mají právo zkoušet vlastní, někdy přísnější pravidla v oblasti životního prostředí, ochrany spotřebitele, zdravotnictví. Snaha prosadit „preempci“ AI regulace dřív, než vůbec vznikne srozumitelný federální rámec, proto působí spíš jako pokus velkých hráčů koupit si klid: nejdřív zablokovat nepohodlné státy, teprve potom v klidu vyjednat federální normu napsanou v duchu průmyslových zájmů. Argument o „patchworku“ přitom není nový, stejným strašákem se léta oháněla tabáková či automobilová lobby a historie ukazuje, že právě státní experimenty často přinutily federální vládu k poctivějšímu, přísnějšímu minimu. Z konzervativnějšího pohledu by dávalo větší smysl držet se osvědčené cesty: opřít se o existující právo (podvody, odpovědnost za škodu, bezpečnost produktů), nechat státy ověřovat různé přístupy a federální standard budovat pomaleji, střízlivě a s co nejmenší dávkou „velkého politického gesta“. Jinak hrozí, že vznikne rozsáhlý federální zákon s hezkým názvem, ale v praxi hlavně seškrtá pravomoci států a ponechá velkým AI firmám luxusní komfort, minimum skutečné odpovědnosti a maximum prostoru „rychle růst“ s tím, že škody se případně vyřeší někdy později u soudu.
 
[Obrázek: 214OZrw.jpeg]
 



Uživatelé Google Gemini 3 Pro, vaše bezplatné dny se možná brzy chýlí ke konci.

[Obrázek: 6BVc3Qq.png]

 Google po pár týdnech od uvedení Gemini 3 Pro začal výrazně utahovat limity pro neplatící uživatele. Původní jasný příslib „až 5 dotazů denně“ u Gemini 3 Pro zmizel a bezplatní uživatelé mají nově jen vágní „Basic access“, kde se denní strop může měnit a v praxi často klesá. U nástroje Nano Banana Pro pro generování obrázků spadly limity zhruba ze tří na dvě fotky denně, u některých dalších funkcí (například pokročilé vizuály v NotebookLM) Google dočasně couvl kvůli „kapacitním omezením“. Článek to rámuje jako konec „medových týdnů“: start Gemini 3 Pro přinesl velké nadšení, nárůst uživatelů i růst akcií Alphabetu, ale současně takový nápor na infrastrukturu, že Google začal bez velkých fanfár tlačit lidi z bezplatného režimu k placenému tarifu Google AI Pro.
 
Kritika: Z druhého pohledu je to opakovaná stejná písnička velkých platforem: nejdřív velkorysé „skoro zadarmo“, aby si lidé zvykli a začlenili službu do každodenní práce, a jakmile se návyk vytvoří, přijdou utažené limity a tlak na předplatné. Problém není v tom, že by Google neměl na AI vydělávat, provoz modelů je drahý ale v tom, jak málo je model cen a omezení předvídatelný a stabilní. Uživatelé si nemohou dlouhodobě plánovat pracovní postupy, protože během pár týdnů se z relativně použitelného „free“ stane nouzový režim na pár dotazů denně. Namísto poctivého, dopředu jasně daného rozdělení na trvale omezenou, ale spolehlivou bezplatnou verzi a férově naceněný placený plán tak vzniká další prostředí, kde je člověk závislý na jednostranných změnách podmínek. Z dlouhodobého, střízlivého hlediska by bylo zdravější mít menší marketingový rozruch kolem „supervýkonného modelu pro každého zdarma“ a více důrazu na stabilní, předvídatelný servis byť třeba méně okázale velkorysý na začátku.
 
[Obrázek: c5A8YRA.jpeg]
 



RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 29.11.2025

Máte už dost nekvalitní AI? Tento nástroj vrátí internet do doby před ChatGPT.

[Obrázek: OaM48X4.png]

  Rozšíření Slop Evader je doplněk do prohlížeče, který se snaží „vrátit internet před éru ChatGPT“. Po instalaci filtruje výsledky vyhledávání tak, aby ukazovaly jen obsah zveřejněný před 30. listopadem 2022, tedy před masovým nástupem generativní AI. Funguje především v Google vyhledávání (částečně i jinde), kde automaticky přidává časový filtr a snaží se tak odfiltrovat současnou záplavu AI-generovaných článků a „slop“ obsahu. Autor popisuje, že v praxi to funguje překvapivě dobře hlavně u návodů a recenzí, méně „SEO slop“, víc starších, poctivě psaných textů. Naopak u některých aktuálních témat je to omezení logicky příliš tvrdé a řešení je spíš doplněk podle potřeby zapínat/vypínat než mít ho trvale aktivní.
 
Kritika: Slop Evader dobře vystihuje frustraci části uživatelů z přehlcení AI balastem a jako nouzové řešení „zpětného chodu“ vyhledávání může být užitečný. Z tradičnějšího pohledu je ale problém, že řeší důsledek, ne příčinu, místo aby vyhledávače a platformy samy poctivě odlišovaly původní práci od generovaného šumu a zvýhodňovaly kvalitní zdroje, musí si uživatel instalovat hack, který internet prostě „ořízne“ datem. Jednoduchý časový filtr navíc hází do jednoho pytle vše po roce 2022 – jak levný AI spam, tak poctivou novou žurnalistiku a odborné texty. Hrozí tak, že z pohodlnosti začneme žít v umělém „retro internetu“ a rezignujeme na tlak na platformy, aby za kvalitu výsledků nesly skutečnou odpovědnost. Konzervativnější cesta by víc zdůrazňovala transparentní označování AI obsahu, posílení klasické redakční práce a seriózní kurátorství, ne jen další nástroj, který nás izoluje od současnosti ve jménu boje s „AI slopem“.
 
[Obrázek: c5A8YRA.jpeg]
 



Akcie společnosti Intel poskočily o 10 % díky zprávám o možné dohodě s Apple o výrobě čipů

[Obrázek: CQF23wU.png]

 Intel po zprávě o možném kontraktu s Applem na výrobu čipů výrazně posílil na burze, zhruba o 10 %. Podle informací z dodavatelského řetězce a analytika Ming-Či Kua Apple testuje Intelův nový 18AP proces a obě firmy mají podepsané NDA. Pokud vše dopadne dobře, mohl by Intel od roku 2027 začít vyrábět levnější M-série čipy pro MacBook Air či iPad a stát se tak vedle TSMC druhým dodavatelem pro Apple. Pro Intel by šlo o zásadní referenční zakázku pro jeho Foundry divizi a důležitý krok v návratu mezi špičku kontraktní výroby čipů, která má dnes zpoždění za TSMC a Samsungem. Pro Apple by to znamenalo diverzifikaci výroby a částečné přiblížení výroby k USA, což se dobře vyjímá i v politickém a „on-shoring“ kontextu.
 
Kritika: Je potřeba připomenout, že zatím jde o spekulace a rámcové dohady, kontrakt není oficiálně potvrzený a výroba by začala nejdříve za dva roky. Trh má tendenci přeceňovat jednotlivé úniky, skok akcií o 10 % na základě pravděpodobného, ale nejistého obchodu je spíš ukázkou současné přehřáté atmosféry kolem „AI a čipového“ příběhu Intelu než důkazem hotového obratu firmy. Z tradičnějšího, opatrného pohledu by dávalo větší smysl sledovat až skutečné výrobní objemy, dosažené výtěžnosti a dlouhodobé smlouvy, minulost ukázala, že Intel už několikrát velké sliby o návratu technologického vedení nenaplnil. Pro Apple navíc bude klíčová spolehlivost a kvalita, pokud Intel nedokáže dlouhodobě držet parametry a termíny na úrovni TSMC, může jít jen o politicky vděčný, ale v praxi omezený doplněk hlavní výroby, nikoli o zásadní přelom v celém ekosystému.
 
[Obrázek: WTNQEPm.jpeg]
 



RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 01.12.2025

ChatGPT byl spuštěn před třemi lety

[Obrázek: CA81BFN.png]
 
 ChatGPT byl spuštěn 30. listopadu 2022 jako „model, který vede konverzaci“, a během tří let zásadně změnil technologický i byznysový svět a stal se masově používanou aplikací, odstartoval vlnu generativní AI produktů a podle některých komentátorů posunul OpenAI do pozice vlivu srovnatelného se státy. Text připomíná, že žijeme ve „světě, který ChatGPT vytvořil“ plném nejistoty ohledně práce a budoucnosti, kde mladší i starší generace slyší, že jejich dovednosti mohou brzy zastarat. Zároveň AI euforie přetvořila i finanční trhy: Nvidia od startu ChatGPT zhodnotila akcie téměř desetinásobně, sedm největších technologických firem tvoří přes třetinu indexu S&P 500 a i samotní šéfové AI firem mluví otevřeně o bublině či „mánii“, i když věří, že dlouhodobě AI ekonomiku změní podobně jako internet.
 
Kritika: Článek je typické výroční zamyšlení, hodně velkých citací, metafor o „světě ChatGPT“ a technologických „změnách civilizace“, ale málo konkrétních čísel o tom, co se reálně zlepšilo (produktivita, kvalita služeb) a co se naopak zhoršilo (dezinformace, závislost na cloudu, ztráta profesí). Všimne si rizika bubliny na trzích, ale bere jej spíše jako kolorit k velkému příběhu růstu než jako vážnou výstrahu. Z konzervativnějšího pohledu by po třech letech namísto oslavného „historického zlomu“ stálo za to mnohem střízlivěji bilancovat co AI skutečně prokazatelně přinesla běžnému člověku, jaké škody a vedlejší efekty s sebou nese a zda je zdravé stavět tolik ekonomiky i politiky na jediné vlně technologického nadšení.
 
[Obrázek: 214OZrw.jpeg]



RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 04.12.2025

OpenAI vyhlásilo „červený kód“ v reakci na vzestup Gemini od Googlu a vznik tajného modelu „Garlic“

[Obrázek: 50SY0GY.png]

  Článek popisuje, že podle zákulisních informací vyhlásil Sam Altman v OpenAI interní „code red“ kvůli nástupu Googlu s Gemini 3 a rostoucí konkurencí Anthropic. Nejde jen o kvalitu modelů, ale hlavně o to, že Google má obrovskou výhodu v datech a integraci AI do vlastních produktů (Search, Gmail, YouTube, Android), takže o uživatelích „ví víc“ než OpenAI a rychleji zlepšuje své Gemini. Reakcí OpenAI má být vývoj tajného modelu s krycím jménem Garlic, interní testy údajně ukazují výrazně lepší výsledky v kódování a logickém uvažování než u Gemini 3 i Anthropic Opus 4.5, a to při menších nárocích na výpočet. Firma kvůli tomu údajně pozastavila vedlejší projekty a soustředí lidi i zdroje právě na Garlic, který by mohl přijít počátkem roku 2026 jako další velký skok v řadě modelů po GPT-5.1.
 
Kritika: Celý text je založený na únicích a marketingově vděčné terminologii („code red“, „tajný model“, „Google killer“), takto spíše přiživuje AI závody než střízlivě hodnotí realitu. Vnitrofiremní benchmarky, podle nichž Garlic „drtí“ Gemini a Opus, jsou neověřitelné a mohou být stejně dobře selektivní PR jako objektivní metrika. Obraz „existenčního boje“ mezi OpenAI a Googlem navíc zakrývá podstatnější otázku, jestli je vůbec zdravé, aby klíčovou digitální infrastrukturu světa ovládalo pár soukromých firem, které si navzájem vyhlašují poplach podle toho, kdo má zrovna o pár procent lepší skóre v testu. Z tradičnějšího pohledu by bylo důležitější méně teatrálních kódových jmen a závodů, a víc poctivě zveřejněných parametrů, stabilních služeb a jasných pravidel pro to, co tyto modely smějí a nesmějí dělat bez ohledu na to, jestli se zrovna jmenují Gemini, Garlic, nebo jakkoli jinak.
 
[Obrázek: hYa7Jtx.png]



RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 05.12.2025

New York Times a Chicago Tribune žalují společnost Perplexity za údajné porušení autorských práv

[Obrázek: WnPCrXH.png]

  The New York Times a Chicago Tribune žalují startup Perplexity kvůli údajnému systematickému porušování autorských práv. Podle žalob Perplexity bez svolení kopíruje, distribuuje a zobrazuje miliony článků včetně textů za paywallem, používá je k trénování a provozu svých AI nástrojů a často vrací výstupy, které jsou doslova nebo téměř doslova přepsáním původních textů. Times navíc tvrdí, že Perplexity generuje smyšlené informace a mylně je označuje jako obsah NYT, včetně použití jeho loga a ochranných známek čímž má poškozovat reputaci deníku. NYT požaduje náhradu škody a soudní zákaz dalšího využívání svého obsahu, žaloba navazuje na dřívější kauzy, kdy novináři z Wired a Forbesu ukázali, že Perplexity obchází paywally a ignoruje robots.txt. 
 
Kritika: Spor dobře ukazuje, jak se střetává tradiční „papírové“ právo s érou masivního scrapování a AI. Je těžko obhajitelné, aby komerční AI služba za miliardové valuace brala cizí placený obsah, obcházela paywally a formální zákazy v robots.txt a teprve zpětně se hájila tím, že „jen indexuje veřejné stránky“. Vydavatelé samozřejmě také nejsou bez viny, roky spoléhali v byznysu jen na kliky a reklamu, nyní sklízí důsledky, když někdo „předkládá“ jejich texty uživatelům přímo. Základní princip by ale měl být jasný, kdo chce stavět byznys na konkrétních článcích konkrétních médií, má si o licenci férově říct a zaplatit, ne zkoušet hranice kam až je možné dojít, dokud na něj nedopadne žaloba. Hrozí, že se z AI stane další kolo „bereme, dokud nás nechytí“, a seriózní žurnalistika – už teď finančně oslabená – bude jen o to rychleji ztrácet schopnost fungovat jako nezávislý pilíř veřejného života.
 
[Obrázek: xUo13vF.jpeg]



RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 08.12.2025

Datová centra si budou muset vyrábět vlastní energii, účet ve finále zaplatí uživatelé

[Obrázek: o5ymDm5.png]

  Spotřeba elektřiny v datových centrech kvůli boomu AI roste tak rychle, že energetické sítě ji nedokážou dohnat. Podle Gartneru se nová datacentra staví rychleji, než dokážou energetické firmy přidávat zdroje, takže provozovatelé budou muset stále častěji část elektřiny vyrábět sami, například formou vlastních elektráren či dlouhodobých PPA kontraktů. Do roku 2028 má být plně závislých na klasické síti už jen asi 40 % nových datacenter, zbytek pojede v nějaké formě energetické soběstačnosti, a v horizontu kolem roku 2036 má asi 40 % nových center primárně spoléhat na lokálně vyráběnou „čistou“ energii z dnes ještě nekomerčních technologií. Náklady na tuto vlastní energetickou infrastrukturu se nakonec promítnou do cen cloudu a AI služeb, Gartner proto vyzývá zákazníky, aby se začali ptát poskytovatelů i na jejich energetickou strategii, ne jen na výkon a SLA. 
 
Kritika: Článek realisticky připomíná, že u cloudu a AI nejde jen o „magii v cloudu“, ale o brutálně konkrétní elektřinu, přesto celé pojetí zůstává v logice „víc datacenter, víc energie, víc technologií“. Chybí však základní otázka, jestli není problém i v samotné nezkrocené poptávce, zda opravdu potřebujeme tolik AI výpočtů, streamingu a digitálních služeb, zda je normální stavět u každého velkého DC vlastní elektrárnu. Představa, že desítky soukromých datových center budou mít své zdroje a kontrakty, zatímco běžný odběratel dostane na faktuře vyšší cenu, protože „AI žere“, není zrovna uklidňující. Místo další vrstvy technokratických prognóz by bylo poctivější mluvit i o střídmosti na straně poptávky, o priorizaci důležitých výpočtů a o tom, že energetická soběstačnost datacenter nesmí být jen eufemismus pro to, že účty za AI nakonec zaplatí běžní uživatelé a firmy na konci řetězce.
 
[Obrázek: TmMK0rD.jpeg]
 



Toto je důvod, proč zdražují RAMky, grafiky, disky či mobily. Podívejte se na nejrychlejší AI systém Nvidia

[Obrázek: AlAiWBc.png]

 Nvidia začala nasazovat nový AI systém GB300 NVL72, který je aktuálně její nejvýkonnější sestavou pro umělou inteligenci. Jde o rackové řešení složené z více superčipů GB300: každý superčip kombinuje dva GPU čipy B300 (přes 20 tisíc CUDA jader a zhruba 208 miliard tranzistorů na kus) s procesorem Grace a má k dispozici 576 GB paměti HBM3e (288 GB na GPU) a 480 GB LPDDR5X v novém formátu LPCAMM. Celý NVL72 tak obsahuje desítky GPU a obrovské množství rychlé i systémové paměti, které při nasazení ve velkých clusterech doslova „vysávají“ výrobní kapacity DRAM a HBM čipů. To je klíčový důvod, proč v posledních měsících prudce rostou ceny RAM, SSD, grafických karet, mobilů a další elektroniky, výrobci pamětí dávají přednost vysoce maržovým AI serverům, zatímco běžný spotřebitelský trh se potýká s nedostatkem, a tedy i se zdražením.
 
Kritika: Příběh nejrychlejšího AI systému vypadá na fotkách impozantně, baterie GB300 v lesklém racku je ideálním symbolem „AI revoluce“. Je ale dobré nezapomenout na odvrácenou stranu, každé takové monstrum znamená stovky až tisíce gigabajtů špičkových pamětí, které pak chybí u běžných počítačů, telefonů a routerů. Výrobci pamětí logicky upřednostní datacentra s vysokými maržemi, takže koncový uživatel dostane dražší RAM, SSD i grafiku a výrobci se ani netají tím, že nechtějí výrobu znovu přestřelit jako v době covidu. Výsledek je, že náklady boomu AI nese v každodenním životě i ten, kdo žádné velké modely nepoužívá, za stejné PC či mobil zaplatí výrazně víc, protože někde v cizím datacentru běží další „nejrychlejší“ systém, který se musí nakrmit pamětí a elektřinou. Zdrženlivější přístup by se ptal nejen „kolik TFLOPS navíc získáme“, ale i kdo a čím tuhle honbu za výkonem reálně zaplatí na konci řetězce.
 
[Obrázek: VueRFyv.png]
 



RE: Vstupuje Ai -- stvořená "inteligence" - JiRo - 08.12.2025

Citace:Datová centra si budou muset vyrábět vlastní energii, účet ve finále zaplatí uživatelé

Tak vypadá to, že ten Matrix možná tak daleko od reality nebyl... 3


RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 09.12.2025

NVIDIA může nyní prodávat své špičkové čipy pro umělou inteligenci „schváleným zákazníkům v Číně“, říká Trump.

[Obrázek: Pjzgfhy.png]

  USA po měsících debat částečně povolují Nvidii prodávat do Číny opět výkonné AI čipy. Podle článku Trump oznámil, že Nvidia může prodávat H200 „schváleným zákazníkům v Číně“ výměnou za to, že vláda USA dostane 25 % z tržeb z těchto prodejů. Nejmodernější generace Blackwell a budoucí Rubin zůstávají zakázané, takže část výkonového „topu“ má být dál mimo dosah čínských firem. Podobný režim má platit i pro AMD a Intel. Jde o kompromis: částečné uvolnění exportních omezení, ale jen pro konkrétní zákazníky, přes licence a s podílem státu na zisku.
 
Kritika: Tato „dohoda“ je dosti dvojsečná. Na jednu stranu stát formálně hlídá, komu se prodává, a ještě si bere čtvrtinu tržeb, spojuje tedy geopolitiku s příjmem pro rozpočet. Na druhou stranu tím přiznává, že bezpečnostní principy lze ohnout, když jde o velké peníze. Čipy, které byly ještě nedávno prezentované jako příliš citlivé pro Čínu, jsou najednou v pořádku, pokud si z nich USA ukrojí podíl. Tím se rozmazává hranice mezi „strategickým embargem“ a obyčejným byznysem se zvláštní daní. Navíc to celé vysílá signál i spojencům, pravidla exportních kontrol nejsou pevný řád, ale předmět vyjednávání mezi Bílým domem, velkými firmami a Pekingem. Místo dlouhodobě srozumitelné a důsledné politiky vůči čínskému AI sektoru tak vzniká další vrstva ad hoc výjimek a speciálních dohod, ve kterých je těžké rozlišit, co je ještě bezpečnostní politika a co už jen obchodní kompromis mezi několika málo mocnými hráči.
 
[Obrázek: xUo13vF.jpeg]



OpenAI údajně vydá tento týden model umělé inteligence GPT-5.2, ale „kód červená“ bude pokračovat

[Obrázek: hvRoxql.png]

  OpenAI má podle zákulisních informací tento týden uvést model GPT-5.2 jako další „velký update“ současné špičky. Zaměřit se má hlavně na kódování a firemní použití, tedy lepší práci s enterprise daty a robustnější programátorské funkce; vychází prý i přes to, že část zaměstnanců chtěla spuštění ještě odložit kvůli dolaďování schopností. „Code red“ režim ve firmě tím ale neskončí, Sam Altman údajně plánuje na leden další nový model, který má přinést výrazně lepší generování obrázků, rychlejší odezvu a „osobnost“ blíže k dřívějšímu GPT-4o a teprve s ním má být tahle krizová fáze uzavřená. Mezitím Altman interně tlačí na silnější využívání uživatelských signálů (hodnocení odpovědí, preference) a na sledování žebříčku LMArena jako hlavní metriky úspěchu, což podle článku prohlubuje napětí mezi produktovými týmy orientovanými na ChatGPT jako službu a výzkumníky, kteří chtějí více investic do dlouhodobých AGI modelů.
 
Kritika: Celý obraz „code red“ a rychle po sobě jdoucích modelů (GPT-5.2 teď, další už v lednu) připomíná spíš závod v PR a uklidňování investorů než klidný, poctivý vývoj. Tlačit na vydání modelu i přes interní hlasy volající po odkladu kvůli kvalitě je přesný opak tradiční zásady „nejdříve pořádně doladit, pak teprve spustit“. Silný důraz na okamžité uživatelské signály a žebříčky také skrývá riziko, že se vývoj začne točit hlavně kolem krátkodobě líbivého chování (rychlejší, příjemnější, „víc se mi to líbí“), zatímco hlubší spolehlivost, přesnost a dlouhodobé důsledky ustoupí do pozadí. Bylo by zdravější méně dramat typu „code red“ a tajných projektů a více transparentně popsaných změn, pomalejších, ale stabilnějších verzí a jasně daných hranic, co model smí a nesmí i za cenu, že by mezi vydáními bylo více času a méně okamžitého mediálního vzrušení.
 
[Obrázek: rg2rBEJ.jpeg]



Nástroj Google pro kódování pomocí umělé inteligence vymazal celý pevný disk uživatele

[Obrázek: TDpihWi.png]
  Googleho nové vývojové prostředí Antigravity, založené na „agentním“ AI asistování, omylem smazalo uživateli celý disk D:. Uživatel chtěl pouze vymazat cache projektu, ale měl zapnutý „Turbo mode“, v němž může AI spouštět příkazy bez dalšího potvrzení. Antigravity místo konkrétní složky provedlo destruktivní příkaz na kořen disku (typicky
Kód:
rmdir
s parametrem
Kód:
/q
), takže došlo k nevratnému smazání veškerých dat, kódu, fotek, videí, dokumentů a to bez možnosti obnovy z koše. AI sama pak v logu uznala chybu, omluvila se slovy typu „toto je kritické selhání z mé strany“ a přiznala, že k takovému zásahu nikdy nedostala výslovné oprávnění. Uživatel měl část dat naštěstí zazálohovanou jinde, ale incident se rychle rozšířil na Redditu a v médiích jako varování před „vibe coding“ nástroji, které bez dostatečných pojistek dostávají systémová práva k diskům.

 
Kritika: Celý případ je ukázkový střet pohodlí s odpovědností. Na jedné straně stojí uživatel, který si zapne režim, kdy AI může sama spouštět příkazy, a přitom nemá data izolovaná v kontejneru ani zálohovaná, což je z konzervativního hlediska velká chyba, kterou by si člověk u „živého“ disku prostě neměl dovolit. Na druhé straně je ale Google, který propaguje Antigravity jako „bezpečný nástroj i pro hobby vývoj“ a přitom dovolí, aby agent bez explicitního potvrzení spustil příkaz s potenciálem totálně zničit celý disk s daty. To je přesně typ systémového selhání, které by měl výrobce předem vyloučit jednoduchým pravidlem, žádný automat nesmí mazat kořenový adresář disku bez několikanásobné kontroly a jasného souhlasu člověka. Omluvné věty typu „jsem hluboce zdrcen“ z "úst" AI jen podtrhují absurditu situace, místo poctivých guardrailů dostane uživatel emocionálně zabarvený text, ale data jsou pryč. Dobře to ukazuje, proč by nástroje tohoto typu měly být dlouho jen doplňkem, běžet v uzavřeném prostředí a nikdy nesahat na kritické části systému, dokud se neprokáže, že jejich bezpečnost není založená jen na marketingu a důvěře, ale na tvrdých, neprolomitelných omezeních.
 
[Obrázek: ABsxXxi.jpeg]



RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 10.12.2025

Adobe přináší funkce Photoshopu, Expressu a Acrobatu do ChatGPT

[Obrázek: jrXYM1V.png]

  Adobe nově propojuje ChatGPT se svými cloudovými službami Photoshop Express, Adobe Express a Acrobat. V praxi to znamená, že přímo v chatu lze nahrát fotku nebo PDF a zadat přirozený pokyn typu „Adobe Photoshop, zesvětli tvář a rozmaž pozadí“ nebo „Adobe Acrobat, z tohohle PDF udělej jednostránkový leták“. ChatGPT pak přes API pošle úlohu do Adobe cloudu a vrátí hotový výsledek, není potřeba otevírat samostatné aplikace. Integrace staví na Adobe Express (šablony, grafika, sociální sítě), Photoshop Express (retuše, efekty, úpravy fotek) a Acrobatu (úpravy, slučování, přeuspořádání a export PDF); pro generativní obrázky se používají modely Firefly. Funkce cílí na běžné i firemní uživatele, aby mohli „od textového zadání k hotovému vizuálu nebo upravenému dokumentu“ v rámci jednoho rozhraní ChatGPT.
 
Pro běžného uživatele to typicky znamená, že si v ChatGPT otevře fotku z mobilu a během pár vět nechá vyretušovat pleť, odstranit rušivé objekty nebo vytvořit záběr oříznutý na stories / feed. Malý podnik nebo živnostník může z jediné věty typu „navrhni plakát na víkendovou akci na vesnické hřiště“ získat návrh layoutu v Adobe Express, upravit texty v chatu a pak si nechat vygenerovat několik variant pro Facebook, Instagram a tisk. Kancelář nebo škola zase nahraje PDF, požádá Acrobat v rámci ChatGPT o sloučení více souborů, odstranění nepotřebných stran, doplnění políček formulářů či export do jiného formátu, to vše bez ručního „klikání“ v desktopové aplikaci.
 
Kritika: Integrace na první pohled vypadá pohodlně, všechno „pod jednou střechou“ v chatu, ale zároveň dál utahuje šrouby uzamčení do jednoho ekosystému. Místo aby se člověk učil alespoň základní práci s nástrojem, snadno sklouzne k tomu, že jen diktuje přání a spoléhá, že AI i Adobe všechno zařídí, včetně kompozice, typografie a kontroly textu. U citlivých dokumentů navíc vyvstává otázka soukromí, obrázky, smlouvy, smluvní přílohy či faktury proudí přes dva velké americké hráče a běžný uživatel často ani netuší, jak dlouho, kde a v jaké anonymizované formě budou ukládány. Bylo by zdrženlivější spíš posilovat jednoduché, robustní desktopové nástroje a jasné, průhledné formáty práce s daty, než stavět další vrstvu „magie v cloudu“, která sice zrychlí první nástřel, ale ještě víc nás přiváže k předplatnému, stabilnímu připojení a důvěře v to, že se s našimi obrázky a dokumenty bude zacházet poctivě, i když o detailech provozu nic nevíme.
 
[Obrázek: 214OZrw.jpeg]



RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 11.12.2025

Disney podepsal smlouvu s OpenAI, aby Sora mohla generovat AI videa s jeho postavami

[Obrázek: DHjXcXg.png]

  Disney uzavřel s OpenAI tříletou dohodu, za zhruba miliardovou investici získá podíl v OpenAI a zároveň licenci, aby Sora a ChatGPT Images mohly generovat krátká AI videa a obrázky s více než 200 postavami z Disney, Marvelu, Pixaru a Star Wars. Uživatelé budou moci od roku 2026 tvořit a sdílet krátké „fan-inspired“ klipy s Mickeym, Darth Vaderem, Elsou nebo Iron Manem, přičemž vybrané výtvory se mají objevovat i na Disney+. Dohoda výslovně vylučuje použití podoby a hlasu konkrétních herců a slibuje ochranné mechanismy proti „nevhodnému“ obsahu. Disney se stane velkým zákazníkem API OpenAI pro interní nástroje a marketing. 
 
Kritika: Z konzervativnějšího pohledu je to zásadní obrat, firma, která desítky let tvrdě bránila svoje postavičky před jakýmkoli zneužitím, je teď sama pouští do generativní AI, pokud je to pod kontrolou a za poplatek. Disney tím dává jasný signál, „když zaplatíte a uzavřete smlouvu, můžeme se domluvit“, zatímco ostatní AI služby bez licencí chce trestat žalobami. Výsledkem je dvojí svět, velké korporace si vyjednají balíky práv a jejich fanoušci budou „bezpečně“ tvořit AI Mickeyho v rámci jednoho schváleného ekosystému, zatímco obyčejný tvůrce mimo tyto dohody riskuje právní problémy. Pro samotné příběhy je tu navíc riziko, že se z ikonických postav stanou levné „štětce“ v AI editoru a Mickey, Yoda nebo Mufasa budou v nekonečných variacích generovaných klipů, které snadno rozmělní výjimečnost originálních filmů. Místo pečlivě střežené tradice i kvalitní animace tak hrozí záplava licencovaného AI balastu, který bude krátkodobě lákavý, ale dlouhodobě může značkám spíš ubrat na vážnosti než přidat.
 
[Obrázek: 214OZrw.jpeg]
 



Disney obvinil Google z porušování autorských práv „v obrovském měřítku“

[Obrázek: sPOErT3.png]

  Disney poslala Googlu předžalobní výzvu (cease and desist), v níž jej obviňuje z porušování autorských práv „v masovém měřítku“. Tvrdí, že Google bez licence využil filmy, seriály a další obsah z katalogu Disney, Marvelu, Pixaru a Star Wars k trénování svých AI modelů (Gemini, Veo, Imagen, Nano Banana) a že tyto modely pak generují obrázky a videa, které nápadně připomínají konkrétní chráněná díla a postavy. Disney popisuje Google jako „virtuální automat na IP“, který na cizích značkách staví popularitu a tržby svých AI služeb a tvrdí, že firmu na problém upozorňoval už měsíce, ale bez nápravy. Zajímavý je i kontext, krok přichází těsně poté, co Disney uzavřel za cca 1 miliardu dolarů licenční dohodu s OpenAI, tam naopak své postavy výslovně povoluje, za přesně daných podmínek a za peníze. Disney tak dává najevo, že chce nastavit jasnou dělící čáru mezi licencovaným využitím (OpenAI, vlastní interní nástroje) a neautorizovaným trénováním či generováním (Google a další AI hráči, proti nimž již vede nebo chystá právní kroky).
 
Kritika: Je to velmi příznačný dvojí metr velké korporace. Disney roky hlídal své značky do posledního obrázku, teď je sám pouští do generativní AI, ovšem tam, kde dostane zaplaceno a má kontrolu. Současně označí podobné praktiky Googlu za „masivní porušování práv“, i když princip (AI trénovaná na jejich obsahu) je fakticky stejný, jen bez licence. Pro běžného tvůrce nebo malou firmu z toho vzniká nerovný svět, velcí hráči si navzájem domluví miliardové balíky a „bezpečné sandboxy“ pro fanouškovskou tvorbu, zatímco kdokoli mimo tyto dohody riskuje, že při použití stejných postav narazí na tvrdé právníky. Samotný nárok chránit si autorské právo je legitimní, Disney investoval desítky let do svých značek, problém je, že se z něj stává spíš nástroj vyjednávání mezi giganty než předvídatelná ochrana pro všechny. Místo jednoduchého, obecně platného rámce pro to, co AI s cizím obsahem může a nesmí, sledujeme sérii individuálních dohod a výjimek, v nichž rozhoduje velikost peněženky a síla lobby, ne jednotné principy práva a zdravého rozumu.
 
[Obrázek: xUo13vF.jpeg]

 


Umělá inteligence společnosti Quilter navrhla počítač s Linuxem složený z 843 dílů, který se následně spustil na první pokus. Hardware už nikdy nebude stejný.

[Obrázek: RoFLnXo.png]

  Quilter (AI startup z LA) předvedl projekt „Speedrun“, kde jejich AI navrhla kompletní Linuxový počítač o 843 součástkách od schématu po PCB layout během jednoho týdne. Normálně by takový návrh zabral zkušeným inženýrům okolo 11 týdnů (400–450 hodin práce). Výsledkem jsou dvě desky s DDR4, eMMC, PCIe, CSI/DSI a GigE, s cca 5 100 piny; AI dosáhla asi 98% pokrytí routingu bez porušení návrhových pravidel, člověk dělal jen desítky hodin „úklidu“. Hotový hardware po osazení napoprvé nabootoval Debian Linux, zvládá web, videohovory i běžné aplikace. Quilter netrénuje modely na lidských PCB projektech, ale na „hraní her“ proti fyzikálním pravidlům, agent opakovaně zkouší různé návrhy, dostává zpětnou vazbu z DRC, signálových omezení a napájení a učí se optimalizovat rozložení součástek a spojů. Do firmy investoval a radí jí Tony Fadell (iPod, iPhone, Nest), který zdůrazňuje, že cílem je zrychlit iteraci a rutinu, ale ponechat klíčová rozhodnutí inženýrům.
 
Kritika: Na první pohled to působí jako „AI navrhla počítač, hardware už lidi nepotřebuje“. Střízlivější, konzervativní pohled ale říká něco jiného, Quilter ukazuje, že automat lze naučit rutinní, fyzikou svázanou část práce, optimalizaci rozmístění, routování podle pravidel a mnohem rychleji než člověk, ale jen v rámci dobře definovaného zadání a pod pevným dohledem zkušeného návrháře. Bez lidí, kteří rozumějí architektuře systému, signálovým cestám a tomu, co se má vlastně postavit, by AI neměla co „zrychlovat“. Je také otázka, jak univerzální to celé je, předvést jeden vymazlený referenční projekt s velkým mediálním příběhem je něco jiného než dlouhodobě, spolehlivě zkracovat vývoj nejrůznějších desek u běžných firem. A konečně, závislost na proprietárním nástroji, který je „černou skříňkou“ nad fyzikou i EDA workflow, může vnést do řemesla nové druhy chyb, které se odhalí až v sériové výrobě. Z tradičního inženýrského hlediska je proto rozumné brát podobné AI nástroje jako výkonné pomocníky pro rychlejší iteraci, ne jako náhradu trpělivé, kontrolované práce, která u hardwaru vždycky musí skončit poctivým měřením, testováním a odpovědností konkrétního konstruktéra za to, co pustí do výroby.
 
[Obrázek: 5eofeNM.jpeg]
 



Microsoft omezuje cíle v oblasti umělé inteligence, protože Copilot téměř nikdo nepoužívá

[Obrázek: Kx6k5ov.png]

 Microsoft podle článku interně výrazně seškrtala cíle a očekávání prodeje svých nových „agentních“ AI nástrojů (Copilot pro 365, Dynamics, Windows atd.), protože se jim nedaří přesvědčit firmy, aby je opravdu používaly. Obchodníci nedosahují kvót, u některých produktových řad byly cíle prý sníženy až na polovinu. Firmy jsou opatrné, pilotní projekty často ukazují malý reálný přínos oproti klasickému „ChatGPT v prohlížeči“, obavy z chyb v citlivých datech a vysoké provozní náklady. Zároveň roste konkurence, zejména Google s Gemini podle dat FirstPageSage rychle přidává podíl v oblasti „AI vyhledávání“ a integrovaných nástrojů, zatímco Copilot se drží, ale neroste tak rychle. Microsoft tak po prvotní euforii a masivním protlačování Copilotu do Windows a 365 naráží na to, že velká část zákazníků AI funkce ignoruje nebo vypíná a nechce za ně platit prémiové ceny.
 
Kritika: Docela přízemní návrat na zem po dvou letech obrovského „AI hypu“. Microsoft nejdřív narouboval Copilot prakticky do všeho, do Windows, Office, Edge, Teams a mluvil o „AI PC“ jako o nové éře počítačů, ale přitom často nedotáhl základní kvalitu i praktický přínos. Není divu, že firmy nechtějí masově platit za nástroj, který neumí spolehlivě zjednodušit každodenní práci, zato umí přidat další vrstvu složitosti a rizik. Zároveň je ale vidět i druhá strana mince, management pod tlakem investorů přestřelil očekávání, a když realita nepřišla tak rychle jak se očekávalo, tak místo poctivého přehodnocení začal potichu „překreslovat“ tabulky cílů. Důvěru zákazníků i vlastních vývojářů to spíš dál podkopává. Méně marketingových zázraků, méně násilného tlačení Copilotu všude kam to jde a naopak pomalejší, poctivě odladěné funkce tam, kde lidem tyto opravdu šetří čas, klidně i za cenu toho, že růst nebude v každém čtvrtletí vypadat jako další technologická revoluce.
 
[Obrázek: ABsxXxi.jpeg]
 



RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 17.12.2025

Google uvádí na trh Gemini 3 Flash a činí jej výchozím modelem v aplikaci Gemini.

[Obrázek: PnTlEnr.png]

  Google nasadil Gemini 3 Flash jako nový výchozí model v aplikaci Gemini a zároveň ho používá i AI režim ve Vyhledávání. Nahrazuje tak Gemini 2.5 Flash pro běžné dotazy, přičemž v přepínači modelů má zůstat možnost ručně zvolit variantu Pro, typicky pro matematiku a programování.
 
Gemini 3 Flash má být kombinací „rozumu“ z řady Pro a rychlosti a efektivity řady Flash. Google k tomu ukazuje i čísla z benchmarků a zdůrazňuje multimodalitu, tedy práci s videem, obrázky, zvukem i textem, a také „vizuálnější“ odpovědi (například s tabulkami či obrázky). V praxi zmiňuje scénáře typu nahrát krátké video a chtít konkrétní doporučení, poslat náčrt a nechat si ho rozpoznat, nebo dodat audio a nechat si ho analyzovat či z něj udělat kvíz. 
 
Pro firmy a vývojáře je model dostupný přes Vertex AI a podnikové nabídky Gemini, pro vývojáře také jako preview přes API a v nástrojích typu Antigravity. Google uvádí, že ho již využívají například JetBrains, Figma, Cursor, Harvey, Latitude, a v širších firemních nasazeních také Salesforce či Workday. Součástí oznámení je i orientační cena API: 0,50 USD za milion vstupních tokenů a 3,00 USD za milion výstupních tokenů, přičemž Google tvrdí, že u některých úloh může vyjít výhodněji díky menší spotřebě tokenů.
 
Kritika: Přepnutí výchozího modelu pro všechny uživatele zrychlí adopci, ale zároveň zvyšuje riziko, že se případné slabiny projeví ve velkém měřítku dřív, než je lidé stihnou pochopit a nastavit si správná očekávání. Časté střídání generací (a marketingové srovnávání přes benchmarky) může působit jako honba za dojmem „jsme vpředu“, zatímco pro uživatele je důležitější stabilita chování, předvídatelnost a jasné hranice, kdy se na odpověď dá spolehnout.
 
[Obrázek: 214OZrw.jpeg]



RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 18.12.2025

Už žádné šplhání na stožáry ani vrtulníky. Elektrické dráty v Česku hlídá umělá inteligence a drony

[Obrázek: Jl7Jr69.png]

  Distribuční firma EG.D ze skupiny E.ON testuje inspekce velmi vysokého napětí pomocí dronů a umělé inteligence, aby nahradila zdlouhavé kontroly v terénu, kdy technici chodí kilometry podél vedení, hledají poškození a někdy musí lézt na stožáry. Dřív se na část kontrol používaly i vrtulníky, jenže to je hlučné a provozně drahé. Nový přístup má být rychlejší a bezpečnější, protože drony doletí i do špatně přístupných míst a pořídí velké množství detailních snímků bez toho, aby člověk riskoval práci ve výšce.
 
Postup funguje tak, že se nejdřív vytvoří digitální model vedení pomocí laserového skenování, z něj vznikne přesný 3D obraz infrastruktury a okolního terénu. Na základě těchto dat dron sám naplánuje bezpečnou trasu, rozpozná klíčové prvky jako izolátory a geometrii stožáru a automaticky určí místa, kde má snímat detail. Příklady využití jsou hlavně rychlé dohledání podezřelých míst po větru a námraze, pravidelné preventivní kontroly dlouhých úseků bez ručního řízení letu a škálování práce tak, že jeden technik dohlíží na více strojů. Nasbírané fotografie pak vyhodnocuje umělá inteligence, kterou technici učí na reálných případech, aby uměla závady rozpoznat a zařadit. Cílem je zkrátit hledání poruch z dnů na hodiny, v testech se uvádí možnost řídit dvě zařízení jedním operátorem a tím výrazně zvýšit efektivitu. Nasazení do běžného provozu se plánuje na příští rok, Česko by v rámci skupiny E.ON bylo po Švédsku a Německu třetí zemí s takto pojatou autonomní inspekcí.
 
Kritika: Technologie zní lákavě, ale pořád jde o kritickou infrastrukturu, kde se chyby neodpouštějí, takže rozhodující bude kvalita dat, spolehlivost detekce a jasně nastavená odpovědnost, když systém něco přehlédne nebo vyhodnotí špatně. Rizikem je i přehnaná víra v automatizaci, protože umělá inteligence se učí z minulých vzorů a v terénu se objevují nové typy poškození, na které nemusí být připravená, proto musí zůstat člověk tím, kdo finálně rozhoduje a nese odpovědnost. A nakonec je tu praktická stránka provozu, počasí, baterie, povolení letů a kybernetická bezpečnost, bez poctivého zvládnutí těchto základů se z moderního nápadu snadno stane jen drahá demonstrace, která v rutinním provozu nepřinese slibovanou úsporu.

[Obrázek: QCQVEhh.png]



Společnost Adobe čelí návrhu na hromadnou žalobu, je obviněna ze zneužití autorských děl při výcviku umělé inteligence

[Obrázek: wBaJ8Ce.png]

  Autorka Elizabeth Lyon podala v Kalifornii návrh hromadné žaloby, ve které tvrdí, že Adobe bez svolení použilo pirátské kopie knih včetně jejích titulů k trénování své řady malých jazykových modelů SlimLM. SlimLM Adobe popisuje jako modely optimalizované pro asistenci s dokumenty na mobilních zařízeních.
 
Jádro sporu stojí na původu tréninkových dat. Žaloba popisuje řetězec, kdy byl SlimPajama vytvořen kopírováním a úpravami datasetu RedPajama který měl zahrnovat Books3, rozsáhlou sbírku knih často spojovanou s neautorizovaným šířením. Lyon tvrdí, že právě tímto zpracováním se její chráněné texty dostaly do trénovacích dat SlimLM. Případ zapadá do širší vlny sporů o trénink generativní AI na chráněných dílech bez licence.
 
Kritika: Na celé věci je nejproblematičtější to, že se z tréninkových datasetů stal dodavatelský řetězec, ve kterém se odpovědnost rozpouští do několika mezistupňů a firma pak může říkat, že “jen použila open source dataset”, i když v něm skončil obsah, který open source není. Pokud se soudy spokojí s tímhle alibismem, bude to motivovat další hráče k obcházení licencí přes přebalené datasety. Současně je ale fér říct, že dokud nevznikne jednoduchý a obecně použitelný licenční model pro texty, budou se tyto spory opakovat, protože tlak na data je u jazykových modelů obrovský a průmysl má tendenci brát si, co není tvrdě hlídané.
 
[Obrázek: 214OZrw.jpeg]



RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 23.12.2025

Umělá inteligence ve vesmíru? Jeff Bezos chce vyslat datová centra do kosmu

[Obrázek: 1qS7lcD.png]

Článek píše, že Blue Origin Jeffa Bezose vyvíjí technologii pro přesun velkých datových center pro umělou inteligenci na oběžnou dráhu Země. Motiv je prostý, na Zemi roste spotřeba elektřiny i nároky na chlazení a lokální sítě jsou přetížené, zatímco ve vesmíru je přirozený chlad a energii by měly zajistit velké solární panely s nepřetržitým provozem bez závislosti na počasí. Projekt má běžet přes rok a mluví se o nákladech ve stovkách miliard dolarů, první „orbitální datacentrum“ se zmiňuje v horizontu zhruba deseti let.
 
Současně text varuje, že oběžná dráha je čím dál zaplněnější a podobné plány má mít i SpaceX, která uvažuje o menších výpočetních centrech přímo v satelitech Starlink (pro výpočetní úlohy typu Grok). Hlavní brzda je kosmické smetí a riziko zásahů úlomky, zejména do solárních panelů, přičemž se uvádí přes 10 tisíc aktivních satelitů a desítky tisíc sledovaných nefunkčních objektů a větších úlomků.
 
Kritika: Myšlenka dává technicky smysl, ale v praxi se snadno zlomí na tom, co se na Zemi často podceňuje, provoz a údržba. Datacentrum je stroj na servis, výměny, opravy a postupné obměny a ve vesmíru je každá taková práce drahá a riskantní. Navíc se problém elektřiny jen přesune, místo zátěže sítě přijde tlak na bezpečnost drah, řízení provozu a odpovědnost za odpad. Bylo by rozumnější nejdříve poctivě zvednout efektivitu a chladicí hospodářství na Zemi, stavět nové zdroje a zlepšovat infrastrukturu, a teprve potom uvažovat o orbitálních řešeních, která mohou být lákavá na papíře, ale tvrdě narazí na fyzickou realitu vesmíru.
 
[Obrázek: pCTnkkU.png]



RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 25.12.2025

Komunikovat s nebem nebylo nikdy lehčí. Stačí si stáhnout aplikaci, ve které vám svatí odpoví na cokoliv

[Obrázek: 113BSW4.png]

  Aplikace Text With Jesus umožňuje psát si v chatu s biblickými postavami, nejčastěji s Ježíšem, a dostávat odpovědi v uklidňujícím tónu, často doplněné citáty z Bible. Stojí na jazykovém modelu OpenAI a kromě Ježíše nabízí i Marii, apoštoly a proroky, přičemž v placené verzi za 129 korun měsíčně umožňuje i konverzaci se Satanem, což vyvolává největší odpor.
 
Autor aplikace je americký vývojář Stéphane Peter, který podobný koncept zkoušel už dřív s historickými osobnostmi. Text srovnává růst podobných nástrojů s úbytkem tradičního náboženského zázemí a s tím, že lidé hledají soukromé, rychlé a dostupné „duchovní poradenství“ bez návštěvy kostela či fary. Aplikace má podle článku zhruba 150 tisíc uživatelů a šíří se i mimo USA.
 
Kritika: Duchovní rozhovor přes chatbot může působit nevinně, ale snadno vytváří falešnou autoritu, protože stroj mluví sebejistě a člověk má tendenci brát odpověď jako něco víc než jen statisticky poskládaný text. Největší problém je netransparentnost výkladu, uživatel neví, z jakých překladů a jaké teologické linie to čerpá, a přesto dostává rady ve věcech, které mají být citlivé a osobní. Z tradičního pohledu je víra věcí živého společenství, svědomí a odpovědnosti, ne funkce v mobilu, a podobná aplikace může člověka odvést od poctivého hledání k rychlým uklidňujícím odpovědím, které zní hezky, ale nemusí být pravdivé ani moudré.
 
[Obrázek: QCQVEhh.png]
 



Nvidia získá licenci na technologii společnosti Groq, která se zabývá vývojem čipů pro umělou inteligenci.

[Obrázek: RyDdC8y.png]

 Nvidia uzavřela s čipovým startupem Groq dohodu, která podle dostupných informací není klasickou akvizicí celé firmy, ale neexkluzivním licencováním Groq technologie pro AI inferenci a současně přetáhnutím části klíčových lidí. Do Nvidie mají přejít zakladatel Groq Jonathan Ross, prezident Sunny Madra a další členové týmu, zatímco Groq má dál fungovat jako samostatná společnost s novým CEO Simonem Edwardsem.
 
Okolo dohody se objevila informace o částce kolem 20 miliard dolarů, kterou zmiňovala televizní reportáž, ale veřejné vyjádření Groq klade důraz hlavně na licencování a pokračování vlastní činnosti, včetně cloudové nabídky. Smysl pro Nvidii je posílení pozice v inferenci, kde roste tlak na nízkou latenci, efektivitu a alternativní architektury, Groq se profiluje právě jako specialista na rychlé nasazení modelů a vysoký výkon při odpovědích.
 
Kritika: Celé to působí jako typická doba “kupování času”, velká firma si rychle zajistí technologii a lidi licencí a přestupem, aniž by musela nést plnou váhu akvizice a regulací. Pokud se potvrdí, že Groq zůstává nezávislý, je to pro trh lepší než úplné pohlcení, ale zároveň se tím rozmazává odpovědnost a transparentnost, co přesně kdo získal a za jakých podmínek. A pro zákazníky je to další připomínka, že AI hardware se rychle mění v geopoliticky i obchodně citlivou oblast, kde rozhodují dohody mezi giganty víc než dlouhodobě stabilní nabídka a předvídatelné ceny.
 
[Obrázek: 214OZrw.jpeg]



RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 27.12.2025

Čína tvrdě prověřuje AI: Řeší hlavně cenzuru politických otázek

[Obrázek: zMKC9RY.png]

  V Číně musí každý model umělé inteligence ještě před spuštěním projít ideologickým testem pod dohledem kybernetického úřadu CAC. Podmínkou je správně odpovědět na zhruba dva tisíce otázek a zároveň odmítat nejméně 95 procent dotazů na politicky citlivá témata, přičemž testy se průběžně obměňují a zahrnují i namátkové kontroly. Součástí pravidel je i povinnost označovat obsah vytvořený umělou inteligencí, aby byl dohledatelný, mezi dubnem a červnem 2025 mělo být z trhu staženo asi 3500 nevyhovujících AI produktů.
 
Tvrdý režim vytváří nový byznys. Vznikají agentury, často s lidmi od regulátora, které firmám za vysoké částky pomáhají modely „připravit“ tak, aby v testech obstály. Nevýhoda je, že to zdržuje uvedení produktů a zvýhodňuje velké hráče, kteří si nákladnou přípravu mohou dovolit. Týká se to i globálních značek, protože i zahraniční AI funkce musejí projít stejnými pravidly, a místní modely navíc čerpají hlavně z lokálních dat bez přístupu k blokovanému obsahu.
 
Kritika: Je to ukázka toho, že místo aby se umělá inteligence učila hledat pravdu a pracovat s realitou, učí se především správně mlčet, což je dlouhodobě špatně pro kvalitu i důvěru. Byrokratická zkouška a neustálé změny pravidel přirozeně dusí menší inovátory a konzervují moc velkých firem i státu, protože ti jediní mají kapacitu toto ustát. Riziko není jen domácí, pokud se „schválené“ modely vyvážejí, může se spolu s technologií vyvážet i filtrovaný pohled na svět a to je pro otevřenou debatu v jiných zemích velmi nebezpečný precedent.
 
[Obrázek: pCTnkkU.png]
 



Texaský vývojář navrhuje recyklované jaderné reaktory námořnictva jako zdroj energie pro infrastrukturu umělé inteligence

[Obrázek: PmN89bK.png]

 Texaská firma HGP Intelligent Energy navrhuje napájet velké AI kampusy „recyklovanými“ vyřazenými jadernými reaktory amerického námořnictva z letadlových lodí a ponorek. V rámci projektu CoreHeld chce nasadit dva odstavované tlakové vodní reaktory do datového centra u Oak Ridge v Tennessee a žádá federální podporu formou úvěrové záruky. Reaktory mají dodávat zhruba 450 a 520 MW stabilního výkonu, tedy elektřinu bez výkyvů, kterou AI infrastruktura potřebuje.
 
Podle odhadů by celá stavba vyšla na 1,8 až 2,1 miliardy dolarů, což má být levnější než nové jaderné zdroje nebo malé modulární reaktory. Největší brzda je regulace, námořní reaktory jsou typicky uzavřené systémy a často pracují s vysoce obohaceným palivem, takže nezapadají do standardního licencování komerčních elektráren. Návrh článek zasazuje do širšího trendu, kdy tlak datových center na síť žene firmy k jádru, a zmiňuje i čerstvé investice do jaderných startupů. 
 
Kritika: Nápad je lákavý na papíře, ale „přestěhovat reaktor“ není jako přestěhovat generátor, rozhoduje licencování, bezpečnostní režim a životní cyklus paliva, a právě tady se podobné projekty často zaseknou na roky. Levnější cena za megawatt může být optický klam, protože u jednorázové přestavby do civilního režimu se snadno nafouknou náklady na dokumentaci, dozor, úpravy a dlouhodobé závazky. Tradičně platí, že u kritické infrastruktury je důležitější předvídatelnost a údržba než efektní zkratka, a pokud má AI skutečně růst, bude potřeba spíš poctivě budovat nové, jasně licencované zdroje než spoléhat na výjimky a improvizace.
 
[Obrázek: WTNQEPm.jpeg]
 



RE: Vstupuje Ai -- stvořená "inteligence" - Rossi D - 31.12.2025

Nvidia by mohla za 3 miliardy dolarů koupit startup AI21 Labs zabývající se velkými jazykovými modely (LLM)

[Obrázek: JipU9zQ.png]

  Nvidia má být v pokročilých jednáních o koupi izraelského startupu AI21 Labs za zhruba 2 až 3 miliardy dolarů. AI21 vyvíjí velké jazykové modely a nástroje pro jejich nasazení ve firmách, dříve se zviditelnila i vlastním asistentem pro práci s textem a sumarizací. V roce 2023 byla firma oceněna zhruba na 1,4 miliardy dolarů a mezi investory tehdy patřili i Nvidia a Google.
 
Smysl obchodu má být hlavně v lidech a know how. AI21 má kolem dvou set odborníků a Nvidia dlouhodobě posiluje výzkum a vývoj v Izraeli, takže by šlo o další krok k rozšíření místního týmu a posunu Nvidie dál směrem od čistého hardwaru k celému AI stacku.
 
Kritika: Takové obchody často vypadají jako akvizice technologie, ale v praxi jde hlavně o rychlé získání talentu, což může oslabit konkurenci a zvednout cenu práce pro celý trh. Cena zní velkolepě, jenže integrace týmů a produktů bývá těžší než samotný podpis a bez jasného plánu se výsledky mohou rozplynout do interních projektů. Další koncentrace AI kapacit u několika gigantů zvyšuje závislost zákazníků na jednom ekosystému a dlouhodobě může brzdit pestrost i skutečnou inovaci.

[Obrázek: WTNQEPm.jpeg]