• rozwiń
    • WIG20 2310.73 -0.36%
    • WIG30 2654.70 -0.55%
    • WIG 59770.36 -0.54%
    • sWIG80 11948.06 -0.51%
    • mWIG40 4183.12 -1.32%

Ostatnia aktualizacja: Dziś 13:20

Dostosuj

Pionier sztucznej inteligencji ostrzega przed "scenariuszem Wielkiego Brata"

Ekspert o sztucznej inteligencji: jest jakieś ryzyko Odtwórz: Ekspert o sztucznej inteligencji: jest jakieś ryzyko
Ekspert o sztucznej inteligencji: jest jakieś ryzyko "Źródło: TVN24 BiS"

Pionier badań nad sztuczną inteligencją Yoshua Bengio jest zmartwiony jej użyciem przez Chiny do "kontrolowania ludzkiego zachowania i wpływania na umysły". W rozmowie z agencją Bloomberga naukowiec ocenił, że użycie AI w Chinach "jest coraz bardziej przerażające".

- To scenariusz Wielkiego Brata z powieści "1984". Moim zdaniem jest to coraz coraz bardziej przerażające - skomentował Bengio.

Kanadyjczyk jest profesorem uniwersytetu w Montrealu oraz współzałożycieli firmy Element AI, zajmującej się rozwojem oprogramowania opartego o sztuczną inteligencję. Uważany jest także za jednego z ojców głębokiego uczenia maszynowego (deep learning) obok Yanna LeCuna i Geoffa Hintona.

Uczenie się algorytmu

Głębokie uczenie może być stosowane w oprogramowaniu po to, by naśladować pewne procesy zachodzące w ludzkim mózgu, np. celem przewidywania zdarzeń na podstawie zestawów danych. Technologia ta jest wykorzystywana m.in. w oprogramowaniu do rozpoznawania twarzy, a także przetwarzania języka naturalnego, zautomatyzowanego tłumaczenia i w algorytmach rekomendacji marketingowych. Głębokie uczenie do poprawnego działania potrzebuje bardzo rozbudowanych zasobów danych, na których algorytm "uczy się" właściwego wykonywania powierzonego mu zadania.

Bloomberg przypomniał, że Chiny obecnie korzystają z zamkniętego systemu kamer monitoringowych wyposażonych w system rozpoznawania twarzy. Służy on do monitorowania zachowania obywateli w przestrzeni publicznej. W Państwie Środka został również utworzony specjalny system punktowania obywateli, w którym osobom o niskiej liczbie punktów przekładającej się na "aspołeczne zachowanie" odmawia się możliwości wyjazdów zagranicznych. Według Bloomberga Pekin rozważa obecnie rozszerzenie stosowania tego systemu również na inne aspekty życia społecznego.

Niepokojąca sztuczna inteligencja

Bengio ocenił, że "wykorzystywanie rozpoznawania twarzy do śledzenia powinno być ściśle uregulowane". Zdaniem badacza odpowiedzialny rozwój technologii sztucznej inteligencji w przyszłości może wymagać zmiany w działaniu niektórych wielkich firm technologicznych. Naukowiec w rozmowie z Bloombergiem wyraził zaniepokojeniem ilością danych, jakie kontrolują koncerny. Jednym z możliwych rozwiązań tego problemu jest jego zdaniem stworzenie specjalnych podmiotów, będących "powiernikami danych" dla użytkowników. Nie będą one działały dla zysku i zobowiązane będą do przestrzegania zasad narzuconych przez szereg regulacji określających to, do czego mogą być wykorzystane zgromadzone prze nie dane.

Badacz podkreślił jednak, że użycie sztucznej inteligencji na szeroką skalę może także służyć dobrym celom. Poinformował przy tym o swoim nowym projekcie, w ramach którego sztuczna inteligencja opracowuje wizualizacje zamieszkanych przez ludzi terenów po skutkach katastrof naturalnych spowodowanych przez zmiany klimatyczne. Projekt Bengia ma służyć zwiększaniu  świadomości społecznej.

Zdaniem naukowca rządy wielu krajów muszą przyjmować świadomie proaktywne nastawienie względem ryzyka niesionego przez sztuczną inteligencję, które może objawić się m.in. zmianami w dystrybucji bogactwa i zasobów w społeczeństwach.

Podziel się:

Bądź na bieżąco:
  • Komentarze (2)

Dodaj Komentarz

Zaloguj się , aby dodać komentarz
Forum jest aktualizowane w czasie rzeczywistym
+0 nowe komentarze
Reader
Moim zdaniem Musk i ś.p. Howking mają rację. Rozwijanie AI to jak igranie z ogniem. Trudno to w pełni kontrolować, a brak kontroli może mieć katastrofalne skutki.
  • 0
  • 0
  • zgłoś naruszenie
zamknij

Zasady forum

Publikowane komentarze są prywatnymi opiniami użytkowników portalu. TVN24BiŚ nie ponosi odpowiedzialności za treść opinii.

Ustawienia

Zamknij ustawienia
Ustawienia zostały zapisane