Menu Zamknij

Sztuczna inteligencja i regulacje Komisji Europejskiej

Sztuczna inteligencja

Jakiś czas temu dowiedzieliśmy się, że Komisja Europejska przedstawiła swój projekt regulacji dotyczący sztucznej inteligencji i jej zastosowań. Zanim jednak o nim opowiemy, pokrótce przypomnijmy, czym jest sztuczna inteligencja i jak ją rozumieć.

Sztuczna inteligencja nie posiada świadomości. Jest tworem, któremu nie tyle daleko do człowieka, czy małpy, co daleko do życia w ogóle. Nie spełnia większości fizyczno-chemicznych kryteriów do uznania jej za istotę żywą, a także nie jest świadoma istnienia siebie samej. Nie ma zatem uczuć, ani myśli, a nawet, gdyby miała, to nie byłaby ich świadoma. Czymże zatem jest SI?

Sztuczna inteligencja to bardzo zaawansowany program komputerowy, który jest zdolny do uczenia się. Nie uczy się jednak tak jak my, ludzie. Umiejętności AI są oparte na algorytmach, powtarzalności oraz zauważaniu podobieństw i zależności. W tym aspekcie działa o wiele lepiej od człowieka – prawie wszystko można przecież opisać w sposób matematyczny, a komputer może wykonywać miliony obliczeń na sekundę. Analizując setki różnych wykresów, możemy nie zauważać małych korelacji i tendencji. Sztuczna inteligencja z dobrze napisanym algorytmem zauważy je zawsze.

Algorytmy i wytyczne to oczywiście nie jest wszystko, co tworzy sztuczną inteligencję. Dobre AI ma mnóstwo usprawnień tu i ówdzie, których nie zrozumiemy, nie będąc programistami. Z drugiej strony, ciężko takiemu komputerowi podejmować dobre decyzje tam, gdzie potrzebne jest ludzkie zrozumienie, intuicja i wszystko inne, co nie jest suchymi danymi. W takich sytuacjach SI może zawodzić, stąd zapewne zainteresowanie UE sprawą.


Regulacje Komisji Europejskiej

Projekt regulacji powstawał ponad trzy lata i kontynuuje uprzednie działania KE. Głównymi jego założeniami są wspieranie innowacji oraz zapobieganie zagrożeniom. Dziś mowa będzie głównie o zagrożeniach i regulacjach, jakie w związku z nimi proponuje KE. Przede wszystkim, systemy oparte na AI będą musiały przejść rygorystyczne testy i spełnić wiele wymagań, zanim zostaną dopuszczone do obrotu. Dzięki takim rozwiązaniom, obywatele UE będą mają czuć się bezpieczniej i łatwiej ufać nowym technologiom.

Nowe przepisy mają obowiązywać w każdym kraju członkowskim UE. Metody wykorzystywania sztucznej inteligencji podzielono na cztery grupy pod względem ryzyka. Analizę ryzyka oparto głównie na podstawie branż, w jakich technologie te są wykorzystywane. Podział przedstawia się następująco:piramida zagrożenia SI

  • Minimalne ryzyko: dotyczy to wykorzystywania SI do zadań takich, jak np. filtrowanie spamu w poczcie. Tutaj zadecydowano, iż nie są potrzebne nowe regulacje
  • Ograniczone ryzyko: czyli interakcja sztucznej inteligencji z klientami, widzami, itd. Komisja Europejska uznała, że potrzebna jest pełna przejrzystość – jest to w porządku dopóty, dopóki wiadomo, że ma się kontakt z SI, a nie człowiekiem.
  • Wysokie ryzyko: tutaj chodzi o wszystkie zastosowania SI, w których podejmuje ona decyzje mające istotny wpływ na ludzkie życie. Dotyczy to zarówno np. wniosku o kredyt czy podania o pracę, jak i zastosowania technologii m.in. w sądownictwie i medycynie. Takie wykorzystanie sztucznej inteligencji będzie musiało posiadać odpowiednią certyfikację UE, po uprzednim zbadaniu i przetestowaniu. Interesanci, których problem/wniosek będzie analizowany przez komputer, ma mieć możliwość odwołania się od decyzji – wówczas druga strona ma być zobowiązana przydzielić do tego zadania człowieka.
  • Niedopuszczalne ryzyko: tutaj chodzi o wszelkie wykorzystanie SI zagrażające prywatności i bezpieczeństwu społeczeństwa. Mowa tutaj m.in. o systemach takich jak w Chinach, gdzie sztuczna inteligencja ocenia stopień zaufania społecznego danej jednostki, a monitoring jest na każdym kroku. Systemy rozpoznawania twarzy i głosu, skanery tęczówek czy odcisków palców, zostały uznane za duże zagrożenie i mają być ściśle kontrolowane.

Przewidziano również wyjątki dot. zabronionych sposobów wykorzystywania AI. Mogą one posłużyć walce z przestępczością, kiedy zagrożenie jest wyjątkowo poważne, a systemy rozpoznawania twarzy pomogą np. odszukać sprawcę lub porwanego. W takich przypadkach decyzję o zastosowaniu mechanizmów sztucznej inteligencji podejmie najprawdopodobniej sąd, ściśle określając warunki i zakres czasu wykorzystania technologii.

Nowe przepisy mają pomóc nam sprostać nadchodzącym zagrożeniom, związanym z rozwojem SI i rosnącym zainteresowaniem tą technologią. Zakazane ma być wykorzystanie sztucznej inteligencji w celu manipulacji ludźmi. Chodzi tutaj o wszelkie systemy monitorowania i śledzenia jednostki oraz jej zachowań, aby zbudować jej dokładny profil psychologiczny i wiedzieć, jak na nią wpływać. Wszystkie powyższe zakazy mają dotyczyć nie tylko korporacji, ale i również rządów wszystkich krajów członkowskich UE.


Sztuczna inteligencja, inwigilacja i prywatność

Żyjemy w bardzo niestabilnych czasach. Z każdej strony wciska nam się jakieś regulacje, nakazy, zakazy, mówi się nam co jest dobre, a co złe. Niektórzy uważają, że to słuszne, a inni, że niedopuszczalne. Różnimy się podejściem do tego, jak bardzo państwo powinno ingerować w gospodarkę i różne obszary naszego życia. Natomiast to, czego nie lubimy wszyscy, to inwigilacja.

Wyobraźmy sobie, że zaczyna się od filtrowania przez sztuczną inteligencję naszych prywatnych wiadomości, aby „zapobiegać terroryzmowi”. Tego typu pomysły władzy zawsze zaczynają się od takich pretekstów. Teraz przypomnijmy sobie, jak dużo informacji wyciekło w ostatnim czasie (w tym dotyczących tajnych służb państwowych…). Nie tylko władza, ale i prywatne firmy mają częste problemy z hakerami. Im bardziej nasze prywatne wiadomości są naprawdę prywatne, tym lepiej.

Dyskusje na ten temat w sieci często zawierają pseudoargument: „JEŚLI NIE MASZ NIC DO UKRYCIA, TO CO CI SZKODZI?!”. Jest to bardzo szkodliwe i niebezpieczne podejście ludzi, którzy nie myślą o konsekwencjach dalszych niż najbliższe kilka godzin. Nawet wówczas, gdy rząd stanowiłyby najprawdziwsze anioły, nadal nie można pozwolić na pozbycie się prywatności korespondencji. Nie można, bo po nich przyjdzie ekipa diabłów, którzy już tacy dobrzy nie będą. A wtedy, z racji pozbycia się prywatności, nie będziemy mogli wypowiedzieć się o nich niekorzystnie nawet w prywatnej wiadomości do znajomego.

Sztuczna inteligencja niesie za sobą rozwój powyższych zagrożeń, zarówno pośrednio, jak i bezpośrednio. Czy to władza nas szpieguje, czy korporacja nami manipuluje – nie chcemy tego i powinniśmy z tym walczyć, póki nie jest za późno. Prawo do prywatności należy chronić niezależnie od tego, jak bardzo podoba nam się rząd. Bez znaczenia, ile się mówi o zagrożeniu np. terroryzmem i jak się nas straszy w mediach. Historia bowiem pokazuje, że zagrożenia znikają, a restrykcje pozostają. Rządy potrafią głównie nakładać społeczeństwu dodatkowe kagańce, zaś bardzo niechętnie je zdejmują. Projekt Komisji Europejskiej ma pewne luki i może pozwalać na nadużycia, jednakże jest krokiem raczej w dobrą stronę.


To już koniec artykułu…

… jednak jeśli interesujesz się swoim bezpieczeństwem w sieci, być może powinnaś(eś) zastanowić się nad zmianą komunikatora tekstowego. Sprawdź nasz stary artykuł na ten temat klikając w obrazek poniżej!

aplikacja signal

Możesz również kliknąć tutaj, aby przeczytać o dzisiejszym temacie na oficjalnej stronie Komisji Europejskiej.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *