Znepokojení v Pekingu: Číně se nelíbí Putinovo strašení jadernými zbraněmi a nová ruská doktrína

Nejsilnější spojenec Ruska v probíhajícím konfliktu na Ukrajině není nadšen ze změny jaderné doktríny, kterou podepsal Putin. Rusku nová strategie umožňuje použít jaderné zbraně i proti Ukrajině, která žádné nemá.

Nejsilnější spojenec Ruska v probíhajícím konfliktu na Ukrajině není nadšen ze změny jaderné doktríny, kterou podepsal Putin. Rusku nová strategie umožňuje použít jaderné zbraně i proti Ukrajině, která žádné nemá.

Celý článek
0

Proč nehubnete? Tukové buňky si „pamatují“ obezitu a vracejí se k ní, zjistili vědci

„Je možné, že neschopnost udržet si váhu není pouze otázkou vůle, ale je způsobena buněčnou pamětí,“ zaznívá od odborníků.

„Je možné, že neschopnost udržet si váhu není pouze otázkou vůle, ale je způsobena buněčnou pamětí,“ zaznívá od odborníků.

Celý článek
0

Udržitelnost musí jít stranou. Generace Z nakupuje na Temu jako šílená

Kdo nenakupuje na Temu, jako by nežil. Platí to pro mladé lidi z generace Z, pro něž je aplikace tohoto nákupního tržiště tak nepostradatelná, že ve staženích poráží i sociální síť TikTok. Čínská nákupní platforma je přitom známá svými nekvalitními produkty a podle expertů je rovněž bezpečnostní hrozbou.

Kdo nenakupuje na Temu, jako by nežil. Platí to pro mladé lidi z generace Z, pro něž je aplikace tohoto nákupního tržiště tak nepostradatelná, že ve staženích poráží i sociální síť TikTok. Čínská nákupní platforma je přitom známá svými nekvalitními produkty a podle expertů je rovněž bezpečnostní hrozbou.

Celý článek
0

Technologické firmy v Kalifornii se bouří proti regulaci umělé inteligence. Zastaví inovace, obávají se

Technologické společnosti v Kalifornii protestují proti regulativnímu návrhu zákona o bezpečných a spolehlivých inovacích pro hraniční systémy umělé inteligence. Obávají se totiž příliš výrazného zásahu do možných inovací.

Technologické firmy v Kalifornii se bouří proti regulaci umělé inteligence. Zastaví inovace, obávají se
Kalifornie chystá regulaci AI, technologické společnosti jsou proti. Podle nich dojde ke zmrazení inovací. | Foto: Shutterstock

Zamýšlená regulace v USA by se měla týkat všech technologických společností působících ve státě Kalifornie, včetně gigantů jako je OpenAI, Anthropic, Cohere či Meta. Jak informuje deník Financial Times, návrh zákona vyžaduje, aby firmy zabývající se vývojem umělé inteligence v Kalifornii zaručily nově vytvořenému státnímu orgánu, že nebudou vyvíjet modely s „nebezpečnou schopností“. Těmito schopnostmi se míní například vytváření biologických nebo jaderných zbraní či pomoc při realizaci kybernetických útoků.   

Podle návrhu zákona o bezpečných a spolehlivých inovacích pro hraniční systémy umělé inteligence by vývojáři například museli podávat zprávy o svých bezpečnostních testech a zavést tzv. kill switch, který by jejich modely v případě, pokud by nemohly zaručit zamezení těmto rizikům, vypnul.

Za tvorbou návrhu zákona stojí demokratický senátor Scott Wiener, který uvedl, že jeho přáním je, aby umělá inteligence uspěla a inovace pokračovaly, ale aby se zároveň předešlo jakýmkoli bezpečnostním rizikům. „Je to v podstatě light verze která jednoduše žádá vývojáře, aby prováděli základní bezpečnostní hodnocení s cílem identifikovat velká rizika a podnikli přiměřené kroky ke zmírnění těchto rizik“. 

Hlavním důvodem nesouhlasu technologických společností ale není přímo „kill switch“, nýbrž především to, že regulace je příliš restriktivní a svazující, zaměřuje se na velmi hypotetická rizika, zbrzdí inovace a donutí firmy z regulovaných států odejít. Problematický je také přístup k modelům s otevřeným zdrojovým kódem, kdy by firmy měly fakticky odpovědnost za to, pokud by jiný subjekt jejich AI modely využil k nekalým účelům.

„Pokud by někdo chtěl přijít s regulací, která by potlačila inovace, těžko by mohl udělat něco lepšího. Tato regulace totiž vytváří obrovské závazky pro rizika, která jsou spíše z oblasti sci-fi a podněcuje tak strach v každém, kdo by se chtěl odvážit inovovat,“ citují Financial Times Andrewa Nga, vědce, který vedl projekty AI ve společnostech Alphabet Google a čínské Baidu a který nyní zasedá v představenstvu společnosti Amazon. 

Wiener si nejspíše vzal připomínky k srdci, neboť již pracuje na pozměňovacích návrzích, které definují, že „vývojáři open source nebudou odpovědní za modely, které projdou následně dalšími úpravami“.

V překladu to tedy znamená, že pokud je model s otevřeným zdrojovým kódem následně dostatečně upraven třetí stranou, tvůrce původního modelu za toto zneužití nenese odpovědnost. A další změnou by pak mohlo být, že požadavek na „kill switch“ se nebude na tyto open source modely vztahovat.