Założyciel Cardano wyraża obawy dotyczące „cenzury AI”

Jako doświadczony analityk w dziedzinie sztucznej inteligencji i technologii podzielam obawy Charlesa Hoskinsona dotyczące potencjału cenzury, jaki umożliwiają zaawansowane systemy AI. Możliwość ograniczenia dostępu do określonej wiedzy za pośrednictwem tych chatbotów to potężne narzędzie, które rodzi ważne pytania etyczne.


Jako badacz badający skrzyżowanie technologii i społeczeństwa natknąłem się na najnowszą perspektywę Charlesa Hoskinsona udostępnioną na platformie mediów społecznościowych X. W tym poście Hoskinson wyraził swoje obawy dotyczące szerokich możliwości cenzury, jakie zapewnia sztuczna inteligencja (AI).

Według Hoskinsona generatywna sztuczna inteligencja staje się mniej przydatna ze względu na szkolenia w zakresie dostosowania. 

Perspektywa, że ​​pewna wiedza może być niedostępna dla przyszłych pokoleń ze względu na dyskrecję nielicznych wybranych, wywołuje u niego wyraźny niepokój. Mówiąc prościej, w poście w mediach społecznościowych wyraził zaniepokojenie, że nieznane osoby, które nie ponoszą żadnej odpowiedzialności przed społeczeństwem, będą decydować, jakich informacji nie będzie można uzyskać każdemu dorastającemu dziecku.

We wpisie na blogu Hoskinson zamieścił dwa obrazy przedstawiające odpowiedzi wygenerowane przez model GPT-40 OpenAI i model 3.5 Sonnet firmy Claude, gdy zostały przedstawione wraz z podpowiedziami dotyczącymi budowy fuzora Farnswortha.

Fuzor Farnswortha to gadżet wykorzystujący pole elektryczne do podgrzewania jonów i wytworzenia ekstremalnych temperatur wymaganych do syntezy jądrowej.

Jako inwestor kryptowalutowy i dociekliwy umysł w świecie technologii byłem zaintrygowany, gdy GPT-40 OpenAI przekazał mi obszerną listę niezbędnych komponentów do budowy reaktora termojądrowego. Jednakże moje podekscytowanie osłabło, gdy Sonet 3.5 Claude’a niechętnie podzielił się jedynie niejasnymi spostrzeżeniami na temat fuzorów Farnswortha-Hirscha, bez podawania konkretnych instrukcji, jak je złożyć.

Hoskinson niepokoi fakt, że tak niewielka liczba osób jest w stanie określić, do jakich informacji można uzyskać dostęp za pośrednictwem chatbotów AI, co prowadzi do znacznych rozbieżności w dostępnych danych.

Od czasu wzrostu popularności ChatGPT OpenAI pod koniec 2022 r. toczy się intensywna dyskusja na temat granic cenzury wymuszanej przez sztuczną inteligencję. Sensowne jest, aby te modele chroniły użytkowników przed szkodliwymi materiałami; jednak określenie, co stanowi szkodę, jest niejasną kwestią, budzącą obawy co do potencjalnej przyszłości, w której sztuczna inteligencja będzie ukrywać informacje i wymuszać zgodność w oparciu o nieodłączne uprzedzenia.

2024-07-01 09:36