Dyrektor generalny Tether wydaje przerażające ostrzeżenie dotyczące sztucznej inteligencji

Jako inwestor kryptowalutowy z doświadczeniem w branży technologicznej podzielam obawy Paolo Ardoino dotyczące scentralizowanych modeli dużych języków (LLM), takich jak OpenAI. Naruszenie bezpieczeństwa w OpenAI na początku tego roku było rzeczywiście przerażające i rodzi poważne pytania dotyczące adekwatności środków bezpieczeństwa. Fakt, że postanowiono nie ujawniać naruszenia do czasu wycieku do mediów, tylko potęguje alarm.


Paolo Ardoino, dyrektor generalny Tether, przestrzegł na platformie mediów społecznościowych X przed potencjalnymi zagrożeniami związanymi ze scentralizowanymi modelami dużych języków.

Ardoino wyraził zaniepokojenie poważnym incydentem związanym z bezpieczeństwem, który miał miejsce na początku 2023 r. w OpenAI, wiodącej firmie zajmującej się generatywną sztuczną inteligencją, określając go jako „niepokojący”.

Niedawny raport The New York Times ujawnił, że OpenAI zataiło informacje o naruszeniu danych, w wyniku którego wyciekły pewne wrażliwe szczegóły.

Badacze zatrudnieni wcześniej w OpenAI, w tym Leopold Aschenbrenner, zgłosili obawy dotyczące niewystarczających protokołów bezpieczeństwa firmy, co potencjalnie naraża ją na złośliwe włamania ze strony podmiotów zagranicznych. Aschenbrenner zapewnił, że jego zwolnienie wynikało z różnic politycznych. Jednak OpenAI zakwestionowało to twierdzenie, twierdząc, że naruszenie bezpieczeństwa zostało ujawnione zanim Aschenbrenner dołączył do ich zespołu.

Pomimo zapewnień OpenAI, że ich obecna technologia nie stwarza żadnych zagrożeń dla bezpieczeństwa narodowego, niektórzy nadal obawiają się potencjalnego ryzyka uzyskania dostępu do jej tajemnic przez Chiny.

Jako analityk zauważyłem, że oprócz naruszeń bezpieczeństwa istnieją uzasadnione uwagi krytyczne pod adresem scentralizowanych modeli sztucznej inteligencji dotyczące nieetycznego wykorzystania danych i cenzury. Dyrektor generalny Tether opowiada się za wykorzystaniem lokalnych modeli sztucznej inteligencji jako najskuteczniejszego rozwiązania problemów związanych z prywatnością oraz zapewnienia odporności i niezależności.

W niedawnym poście na platformie mediów społecznościowych X Ardoino stwierdził, że lokalnie działające modele sztucznej inteligencji (AI) to najskuteczniejsza metoda ochrony prywatności jednostek i osiągnięcia zarówno odporności, jak i samowystarczalności.

Dodał, że nowoczesne smartfony i laptopy są wystarczająco mocne, aby dostroić ogólne LLM. 

2024-07-08 09:35