• rozwiń
    • WIG20 2281.15 +2.02%
    • WIG30 2606.10 +1.80%
    • WIG 59341.28 +1.66%
    • sWIG80 12737.02 +0.25%
    • mWIG40 4247.72 +0.51%

Ostatnia aktualizacja: Dziś 16:17

Dostosuj

Ostrzeżenie przed sztuczną inteligencją. Eksperci kreślą czarne scenariusze

Sztuczna inteligencja przetłumaczy psią mowę. Prace trwają Odtwórz: Sztuczna inteligencja przetłumaczy psią mowę. Prace trwają
Sztuczna inteligencja przetłumaczy psią mowę. Prace trwają "Źródło: tvn24bis"

Sztuczna inteligencja może być wykorzystana przez dyktatorów, przestępców i terrorystów - ostrzegają eksperci w raporcie "Złowrogie wykorzystanie sztucznej inteligencji". Rysuje on czarne scenariusze na najbliższe 5-10 lat i sugeruje, jak ich uniknąć.

Opracowanie przygotowali naukowcy, przedstawiciele think-tanków i świata biznesu. - Nasz raport koncentruje się na sposobach, w jakich ludzie mogą wyrządzić umyślne szkody za pomocą sztucznej inteligencji - tłumaczy Sean O hEigeartaigh, dyrektor wykonawczy Cambridge Center for Existential Risk.

Liczne zagrożenia

Autorzy 100-stronnicowej analizy zwracają uwagę na kilka potencjalnych sposobów, w jaki sztuczna inteligencja mogłaby zostać użyta w złej wierze. Wymieniają zagrożenia pojawiające się w sferze cyfrowej (np. kradzież danych, cyberataki), fizycznej i - co ciekawe - politycznej.

Twierdzą na przykład, że autorytarni przywódce mogliby wykorzystywać AI do inwigilacji, tworzenia bardziej ukierunkowanej propagandy i rozpowszechniania dezinformacji.

"Dyktatorzy mogliby szybciej zidentyfikować ludzi, którzy planują obalenie reżimu i zanim zaczną oni działać, zlokalizować ich i osadzić w więzieniu" - czytamy w raporcie.

Wskazano w nim też na zagrożenie płynące z możliwości tworzenia za pomocą komputerowych algorytmów fałszywych klipów wideo, które są potężnym narzędziem manipulowania opinią publiczną na "niewyobrażalną i niespotykaną wcześniej skalę".

Innym zagrożeniem pojawiającym na horyzoncie jest - zdaniem autorów raportu - rozpowszechnienie się dronów i autonomicznych robotów, które mogą zostać wykorzystane do precyzyjnych ataków na cele fizyczne.

W raporcie przedstawiony jest hipotetyczny czarny scenariusz, w którym zamachowcy używają wyposażonego w bombę robota sprzątającego do ataku na ministra finansów Niemiec. Maszyna czyści biura i zachowuje się normalnie dopóki jej ukryte oprogramowanie do rozpoznawania twarzy nie zauważy ministra i nie zdetonuje ładunku wybuchowego, zabijając polityka.

Pora na regulacje

W raporcie czytamy, że "żyjemy w świecie pełnym codziennych zagrożeń wynikających z niewłaściwego wykorzystania sztucznej inteligencji i musimy wziąć odpowiedzialność za te problemy".

Autorzy zwracają się do polityków i firm, aby dopilnowali, żeby oprogramowanie robotów było jak najtrudniejsze do zhakowania, nałożyli ograniczenia dotyczące bezpieczeństwa oraz rozważyli rozszerzenie praw i przepisów regulujących rozwój sztucznej inteligencji.

Podziel się:

Bądź na bieżąco:
  • Komentarze (0)

Dodaj Komentarz

Zaloguj się , aby dodać komentarz
Forum jest aktualizowane w czasie rzeczywistym
+0 nowe komentarze

Zasady forum

Publikowane komentarze są prywatnymi opiniami użytkowników portalu. TVN24BiŚ nie ponosi odpowiedzialności za treść opinii.

Ustawienia

Zamknij ustawienia
Ustawienia zostały zapisane