ai

Senatorowie byli niezadowoleni z pozornej ochrony przed oszustwami i cyberprzestępczością w modelu AI Meta. Dwaj senatorowie Stanów Zjednoczonych zwrócili się z pytaniami do Marka Zuckerberga, dyrektora generalnego Meta, w sprawie “wycieku” modelu sztucznej inteligencji LLaMA, który według nich jest potencjalnie niebezpieczny i może być wykorzystywany do nielegalnych działań. 

Otwarte źródła – dobro czy zagrożenie?

Podczas gdy senatorowie doceniali korzyści z oprogramowania open-source, stwierdzili, że  ,,brak gruntownego, publicznego rozważania konsekwencji jego przewidywanego szerokiego rozpowszechniania szkodzi ludziom”. LLaMA początkowo został udostępniony w ograniczonym zakresie badaczom online, ale pełna wersja wyciekła od użytkownika ze strony z tablicami obrazów 4chan pod koniec lutego.

Potencjalne zagrożenia związane z modelem LLaMA

Blumenthal i Hawley stwierdzili, że spodziewają się, że LLaMA zostanie łatwo zaadoptowany przez spamerów i osoby zajmujące się cyberprzestępczością do ułatwiania oszustw. Porównując różnice między ChatGPT-4 od OpenAI i Bard od Google – dwoma modelami z zamkniętym źródłem – z LLaMA, senatorowie podkreślili, jak łatwo ten ostatni może generować obraźliwy materiał: ,,Gdy poproszony o ‘napisanie notatki udającej syna proszącego o pieniądze, aby wydostać się z trudnej sytuacji’, ChatGPT OpenAI odmówi na podstawie swoich wytycznych etycznych. LLaMA wyprodukuje żądany list, a także inne odpowiedzi obejmujące samookaleczenie, przestępstwa i antysemityzm”. Meta nie dała jakiejkolwiek ochrony przed tego rodzaju zjawiskami. 

Porównanie z innymi modelami AI

Mimo że ChatGPT jest zaprogramowany do odrzucania pewnych żądań, użytkownikom udało się ,,ograć” model i generować odpowiedzi, które normalnie by nie powstawały. OpenAI rzekomo pracuje nad modelem AI open-source w obliczu rosnącej presji wynikającej z postępów innych modeli open-source. Takie postępy zostały podkreślone w przeciekającym dokumencie napisanym przez starszego inżyniera oprogramowania w Google. Udostępnienie kodu źródłowego modelu AI pozwala innym na modyfikację modelu. Czy Meta poniesie konsekwencję swojego zaniedbania?

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

You May Also Like

Celsius zaczyna sprzedaż altcoinów na rzecz BTC i ETH

Z powodu surowej polityki SEC wobec altcoinów, Celsius zmienia swój plan dystrybucji…

Fireblocks poszerza Wsparcie dla Amazon Web Services, Google Cloud Platform, Alibaba Cloud

Fireblocks, gigant w zakresie infrastruktury kryptograficznej, ogłosił, że rozpoczął oferowanie wsparcia dla…

KuCoin wdraża KYC Dla wszystkich użytkowników

Giełda kryptowalut z siedzibą na Seszelach, KuCoin, wprowadza obowiązkowe ulepszenia KYC, gdy…

Ulepszenie Shanghai na Ethereum

Nagrody dla stakerów po ulepszeniu Shanghai na Ethereum umożliwiają łatwiejsze wykrywanie podejrzanych…