Problém jménem wolfram: Čína ovládá 80 procent světové produkce strategicky důležitého kovu

Wolfram je téměř stejně tvrdý jako diamant a je nezbytný k výrobě čipů i zbraní. Nouze o něj představuje nové těžiště boje o světovládu.

Wolfram je téměř stejně tvrdý jako diamant a je nezbytný k výrobě čipů i zbraní. Nouze o něj představuje nové těžiště boje o světovládu.

Celý článek
0

Jako infarkt očního nervu. Lidem, kteří berou Ozempic nebo Wegovy, hrozí náhlé oslepnutí, varuje studie

Léky proti cukrovce, nyní ale hojně užívané i zdravými lidmi na hubnutí, mohou podle vědecké studie způsobit slepotu. Jejich výrobce, firma Novo Nordisk, se ale brání s tím, že počet případů náhlého oslepnutí je příliš malý na to, aby z něj bylo možné vyvozovat takové závěry. 

Léky proti cukrovce, nyní ale hojně užívané i zdravými lidmi na hubnutí, mohou podle vědecké studie způsobit slepotu. Jejich výrobce, firma Novo Nordisk, se ale brání s tím, že počet případů náhlého oslepnutí je příliš malý na to, aby z něj bylo možné vyvozovat takové závěry. 

Celý článek
0

Jak čínská mafie pere miliardy dolarů mexických drogových kartelů

Síť ilegálních bank financuje výrobu a distribuci fentanylu v USA. Úřady jen obtížně hledají protizbraň.

Síť ilegálních bank financuje výrobu a distribuci fentanylu v USA. Úřady jen obtížně hledají protizbraň.

Celý článek
0

Technologické firmy v Kalifornii se bouří proti regulaci umělé inteligence. Zastaví inovace, obávají se

Technologické společnosti v Kalifornii protestují proti regulativnímu návrhu zákona o bezpečných a spolehlivých inovacích pro hraniční systémy umělé inteligence. Obávají se totiž příliš výrazného zásahu do možných inovací.

Technologické firmy v Kalifornii se bouří proti regulaci umělé inteligence. Zastaví inovace, obávají se
Kalifornie chystá regulaci AI, technologické společnosti jsou proti. Podle nich dojde ke zmrazení inovací. | Foto: Shutterstock

Zamýšlená regulace v USA by se měla týkat všech technologických společností působících ve státě Kalifornie, včetně gigantů jako je OpenAI, Anthropic, Cohere či Meta. Jak informuje deník Financial Times, návrh zákona vyžaduje, aby firmy zabývající se vývojem umělé inteligence v Kalifornii zaručily nově vytvořenému státnímu orgánu, že nebudou vyvíjet modely s „nebezpečnou schopností“. Těmito schopnostmi se míní například vytváření biologických nebo jaderných zbraní či pomoc při realizaci kybernetických útoků.   

Podle návrhu zákona o bezpečných a spolehlivých inovacích pro hraniční systémy umělé inteligence by vývojáři například museli podávat zprávy o svých bezpečnostních testech a zavést tzv. kill switch, který by jejich modely v případě, pokud by nemohly zaručit zamezení těmto rizikům, vypnul.

Za tvorbou návrhu zákona stojí demokratický senátor Scott Wiener, který uvedl, že jeho přáním je, aby umělá inteligence uspěla a inovace pokračovaly, ale aby se zároveň předešlo jakýmkoli bezpečnostním rizikům. „Je to v podstatě light verze která jednoduše žádá vývojáře, aby prováděli základní bezpečnostní hodnocení s cílem identifikovat velká rizika a podnikli přiměřené kroky ke zmírnění těchto rizik“. 

Hlavním důvodem nesouhlasu technologických společností ale není přímo „kill switch“, nýbrž především to, že regulace je příliš restriktivní a svazující, zaměřuje se na velmi hypotetická rizika, zbrzdí inovace a donutí firmy z regulovaných států odejít. Problematický je také přístup k modelům s otevřeným zdrojovým kódem, kdy by firmy měly fakticky odpovědnost za to, pokud by jiný subjekt jejich AI modely využil k nekalým účelům.

„Pokud by někdo chtěl přijít s regulací, která by potlačila inovace, těžko by mohl udělat něco lepšího. Tato regulace totiž vytváří obrovské závazky pro rizika, která jsou spíše z oblasti sci-fi a podněcuje tak strach v každém, kdo by se chtěl odvážit inovovat,“ citují Financial Times Andrewa Nga, vědce, který vedl projekty AI ve společnostech Alphabet Google a čínské Baidu a který nyní zasedá v představenstvu společnosti Amazon. 

Wiener si nejspíše vzal připomínky k srdci, neboť již pracuje na pozměňovacích návrzích, které definují, že „vývojáři open source nebudou odpovědní za modely, které projdou následně dalšími úpravami“.

V překladu to tedy znamená, že pokud je model s otevřeným zdrojovým kódem následně dostatečně upraven třetí stranou, tvůrce původního modelu za toto zneužití nenese odpovědnost. A další změnou by pak mohlo být, že požadavek na „kill switch“ se nebude na tyto open source modely vztahovat.