Sztuczna Inteligencja (AI)
– obszary zastosowań
– możliwości i ryzyka

AI-sztuczna inteligencja-dr Ewelina JurczakTo o co do niedawna jawiło się, jako wymysł ludzkiej wyobraźni pojawiając się tylko w książkach i filmach science fiction, dziś stało się częścią naszej rzeczywistości. Sztuczna inteligencja, bo o niej mowa, zaskakuje z każdym dniem. Możemy się z nią spotkać w handlu detalicznym, medycynie, marketingu i wielu innych obszarach nierzadko zupełnie nieświadomi tego, że z nią właśnie mamy do czynienia. W związku z powyższym, podczas gdy niektórzy zastanawiają się nad tym, czy AI nie przejmie kiedyś nad nami kontroli, my pochylmy się nad sektorami, w ramach których już działa. Zastanówmy się, gdzie jeszcze i w jakim zakresie można wykorzystać potencjał tej technologii, z jakimi zagrożeniami wiąże się jej rozwój. Odpowiedzmy sobie na pytania czym jest, jakie są trendy, jak Polska wpisuje się na mapie świata w kontekście rozwoju i stosowania w praktyce sztucznej inteligencji?

Aby zrozumieć, trzeba poznać.
Czym jest Sztuczna Inteligencja? Jak długą drogę pokonała ludzkość od marzeń do pierwszych rozwiązań określanych tym mianem? 

Sztuczna Itneligencja (SI), ang. Artificial Intelligence (AI), stanowi dziedzinę informatyki, której rozwój wiąże się ze ścisłą współpracą specjalistów z wielu dyscyplin naukowych. Za twórcę tego terminu uważa się Johna McCarthhy, który w 1956r. wprowadził je do przestrzeni naukowej. Pod pojęciem tym kryje się urealniające na naszych oczach marzenie o maszynach zdolnych do prawidłowego analizowania i interpretowania danych, a nawet więcej uczenia się na tej podstawie celem wykonywania określonych zadań i realizacji założonych celów.
Przedmiotem tej dziedziny nauk jest odkrywanie nowych obszarów zastosowania komputerów, nowych metod ich programowania i rozwiązywania przez nie zadań, problemów,(8) dążąc do tego, aby maszyny działały jak umysł ludzki.
W związku z powyższym w przypadku AI występuje potrzeba pracy interdyscyplinarnej specjalistów wielu dziedzin. Od nauk jak m.in. psychologia, filozofia, neurobiologia, czy kognitywistyka, gdzie mamy do czynienia z obserwacją i analizą działań mózgu, umysłu człowieka, poszczególnych zmysłów, ich modelowania. Poprzez lingwistykę, ekonomię, teorie sterowania i prawdopodobieństwa, w kontekście optymalizacji, logiki i badań operacyjnych. Po matematykę, fizykę, informatykę oraz robotykę, które czerpiąc wiedzę z tak wielu różnych dyscyplin, z tak wielu różnych obszarów nauki, ustaleń i narzędzi, którymi one dysponują, pochylają się nad rozwojem współczesnych technologii. Technologii stanowiących gałąź rozwiązań, które mają działać, jak umysł ludzki tj. samodzielnie ucząc się i podejmując decyzje na podstawie dostępnych danych, a więc wykraczając poza to, co zostało im zaprogramowane przez człowieka. Systemów, które można określić mianem sztucznej inteligencji.
W tym miejscu zaznaczyć należy, że za cel przy tworzeniu i rozwoju AI postawiono sobie, aby uzyskać „zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie” (3). Innymi słowy produkowanie maszyn samouczących, wyposażonych w cechy ludzkiego umysłu, jak umiejętność rozumienia języka, rozpoznawania obrazów, rozwiązywania problemów i przede wszystkim wspomnianego już uczenia się, (5) uczenia się na podstawie dostępnych danych i to nie tylko danych tekstowych.
Już dziś wiemy, że to, co do niedawna wydawało się być niemożliwe, staje się rzeczywistością.
Jakim sposobem? W kontekście sztucznej inteligencji bardzo często słyszymy pojęcia takie, jak sieci neuronowe oraz machine learning. Sieci neuronowe to, nic innego jak symulatory modeli matematycznych, symulatory programowe bądź sprzętowe. Sztuczne Sieci Neuronowe (SSN) są tworem u podstaw, którego leży wiedza z takich dyscyplin naukowych jak matematyka, fizyka i biologia. Ich dynamiczny rozwój obserwujemy dopiero teraz w czasach nam współczesnych, ponieważ jeszcze do niedawna możliwości obliczeniowe w ramach rozwiązań informatycznych i elektronicznych były zbyt słabe. Działanie sieci neuronowych oparte jest o wiele wzajemnie połączonych neuronów, które mają naśladować działanie mózgu, jego biologicznych struktur, a tym samym upodabniać maszynę do człowieka w kontekście samodzielnego myślenia, uczenia się. (34) A skoro już o uczeniu mowa to, pochylić się warto nad tzw. machine learning’iem, czyli uczeniem maszynowym. Polega ono na zapamiętywaniu pewnych wzorców i zachowań, których maszyna „doświadcza”, analizowaniu przez nią dostępnych danych (Big Data) i na podstawie tego wszystkiego wyciąganiu przez sztuczną inteligencję wniosków, opinii w odniesieniu do danego tematu. Co więcej, szukaniu rozwiązań, które mogą się sprawdzić i w innych, podobnych sytuacjach. Ogromne znaczenie odgrywa tu rachunek prawdopodobieństwa. (12) Dzięki dostępnym obecnie mocom obliczeniowym współczesna technologia „dojrzała” do tego by maszyny mogły rozpocząć proces samouczenia się, analizowały jak umysł ludzki, tylko szybciej przetwarzając dostępne dane. W odniesieniu do sztucznej inteligencji powiemy więc o tworzeniu modeli zachowań inteligentnych, a uściślając programów, systemów stymulujących takowe dla rozwiązań technologicznych, dla maszyn. O rozwiązaniach informatycznych, które w zamyśle wielu wizjonerów docelowo mogłyby być jak człowiek, tj. myśleć i działać jak my, a być może sprawniej. Sprawniej zwłaszcza w obszarze analitycznym, stając się swoistą wyrocznią co do wielu działań, aktywności ludzkich, a może i nawet weryfikacji stanu zdrowia (precyzji w kontekście diagnostyki i zabiegów), czy poprawności politycznej co już powoli zaczyna się dziać na naszych oczach. Pytanie tylko, czy my ludzie nie zapomnimy w pewnym momencie o tym, że statystyka to tylko statystyka i czy nie pozwolimy na to by emocje i instynkt ludzki nie ustąpiły zupełnie miejsca rachunkowi prawdopodobieństwa inteligentnych, samouczących się systemów…
Czy nie zapomnimy, że sztuczna inteligencja tak, jak człowiek uczy się w oparciu o dostępne im dane, a co za tym idzie na ich podstawie kształtuje swoje oceny, aby nie powiedzieć, że poglądy.

Wybrane klasyfikacje i przykłady rozwiązań AI
W zależności od kryteriów systemy AI możemy podzielić m.in. na słabą/wąską sztuczną inteligencję (WEEK/NARROW ARTIFICIAL INTELLIGENCE) oraz silną/ogólną sztuczną inteligencję (STRONG/GENERAL ARTIFICIAL INTELLIGENCE). (5 i 29) W pierwszym przypadku SI stosowana jest tylko do określonych zadań, czy też wręcz konkretnych typów problemów, a więc skoncentrowanych na rozwiązywaniu pojedynczych, wąskich zadań, ale lepiej niż człowiek. Dla zobrazowania tego, o czym mowa odnieśmy się na początek do przykładu automatycznego tłumacza Google Translator. System, który może nie tłumaczy idealnie, bo nierzadko na zasadzie „Kali być, Kali mieć” z Sienkiewiczowskiego „W pustyni i w puszczy”, ale mimo to ułatwia komunikacje i wiele osób z niego korzysta. Kto i dlaczego? Niektórzy uczniowie w szkołach, pracownicy, którzy nie do końca opanowali język partnera biznesowego, czy też turyści, w tym np. w ramach „turystyki religijnej”, w przypadku, której charakterystycznym jest, że niejednokrotnie na danym obszarze (np. miasto, województwo) spotykają się ludzie bardzo wielu różnych narodowości, jak chociażby w czasie Światowych Dni Młodzieży. W takim przypadku choć słowa modlitw i pieśni wydają się być uniwersalne to, trzeba się jeszcze jakoś skomunikować m.in. co do tego, którędy dojść na stancje, czy też zwyczajnie po ludzku nawiązać relacje międzyludzkie począwszy od pytań, jak te o pogodę, nastrój, czy poglądy, po bardziej prozaiczne jak, gdzie można skorzystać z toalety. Innym przykładem rozwiązań z grupy określanej mianem słabej/wąskiej sztucznej inteligencji mogą być autonomiczne samochody Tesla, przy czym trzeba wiedzieć, że dziś nie chodzi już tylko o to, by samochód sam za nas zaparkował, ale docelowo o to, aby jeśli nie już to, w niedługim czasie przeszedł na poziom piąty i by samochody bez kierowcy stały się standardem. Z tego co mówi Elona Muska, założyciel amerykańskiej firmy Tesla, wynika, że kwestia utworzenia pierwszej inteligentnej floty taxówkowej bez kierowców to już tylko kwestia czasu i oni chcą być pierwsi. (22 i 23) Jeśli, a może, gdy to się uda będziemy mogli już zacząć mówić o drugim z w/w przypadków silnej/ogólnej sztucznej inteligencji, a więc o systemach dysponujących wszechstronną wiedzą oraz zdolnościami poznawczymi i analitycznymi umożliwiającymi samodzielne myślenie, a co za tym idzie inteligentne działanie, jak człowiek. Czy to jest możliwe już teraz, już dziś? Czy to jest jeszcze kwestia odległej przyszłości? W 2018r. głośno było o pierwszym dziecku sztucznej inteligencji Google. AutoML, sztuczna inteligencja stworzona przez naukowców z zespołu Google Brain, samodzielnie stworzyła system detekcji obiektów – NASNet.

Innym podziałem, na którym można się oprzeć mówiąc o sztucznej inteligencji może być podział ze względu na funkcjonalności. W tym kontekście możemy wyróżnić takie obszary, jak Maszyny reaktywne (REACTIVE MACHINES), Maszyny o ograniczonej pamięci (LIMITED MEMORY), Teoria umysłu (THEORY OF MIND) oraz Samoświadomość (SELF-AWARENESS). Co kryje się pod tymi pojęciami?

Maszyny reaktywne (REACTIVE MACHINES), a więc takie, które nie mogą wykorzystać informacji z przeszłości, gdyż nie mają pamięci, jak komputer IBM, z którym w 1997 r. przegrał wybitny, legendarny szachista Garry Kasparow. Ten, którego w latach 90-tych XX wieku nikt nie był w stanie pokonać w rozgrywkach szachowych i to na poziomie międzynarodowym. (5)
XXI wiek pokazał, że sztuczna inteligencja potrafi wygrać z człowiekiem nawet w jeszcze bardziej złożonych grach niż szachy. Przykładowo w 2015 roku DeepMind, firma należąca do Google opracowała algorytm AlphaGo, który pokonał Fan Hui profesjonalnego gracza w Go 5 do 0. Rok później w kolejnym pojedynku z tą sztuczną inteligencją przegrał Lee Sedol drugi z najbardziej utytułowanych graczy w tej grze, grze jak się wydaje, bardziej złożonej od szachów. Wkrótce po przegranej 4 do 1 ze sztuczną inteligencją oficjalnie przepraszał on, że zawiódł i ogłosił, że przechodzi na wcześniejszą emeryturę. W czasie tego pojedynku tylko raz pokonał system AI dzięki sławnemu już „ruchowi 78”, efektem którego to posunięcia maszyna popełniła błąd i oddała mecz. (30) W 2017r. wspomniany już Musk pochwalił się na Twitterze, że bot OpenAI wygrał w międzynarodowym turnieju w grze online „Dota 2”. Dla nie zorientowanych, Dota 2 to, gra komputerowa z gatunku multiplayer, czyli gier umożliwiających jednoczesną rozgrywkę wielu graczy w tej samej grze. Co ciekawe, system pokonał ludzi uważanych dotąd za najlepszych graczy, dotychczasowych faworytów w tej grze. (16)
Idąc dalej, 2017r. to też pierwsze sukcesy AI w konfrontacji z człowiekiem w pokerze podczas turnieju „Brains vs. Artificial Intelligence: Upping the Ante” w Rivers Casino w Pittsburgh w USA. Analitycy przypatrywali się tym wydarzeniom z zapartym tchem, ponieważ taka gra, jak poker nie opiera się wyłącznie na wyuczonych wcześniej schematach. Istotną rolę zdają się tu odgrywać i inne czynniki, a mianowicie intuicja i blef. Niejednokrotnie wygrywa nie ten zawodnik, który ma lepsze karty, ale ten, który blefując podjął ryzyko podbicia stawki, pomimo iż w rzeczywistości miał słabe karty. Wygrywa wówczas tylko dlatego, że przeciwnik nie mając świadomości jakie rzeczywiście karty ma przeciwnik boi się podjąć ryzyka przegranej i to bez względu na to, czy ma nawet dość dobre karty w ręce. Na wszelki wypadek, w obawie przed przegraną mówi pas, a ten kto blefował zgarnia całą pulę. (25) W 2019r. podczas turnieju z cyklu World Series of Poker jeden z graczy oficjalnie korzystał z pomocy AI Pluribus z poziomu iPada. W efekcie mówiło się o sukcesie sztucznej inteligencji nad elitą graczy w pokera i to w ramach odmiany pokera zwanej teksańskim klinczem (ang. Texas Hold’em) dość trudnej, bo bez ograniczeń (No-Limit) na sześciu zawodników. (33)

Maszyny o ograniczonej pamięci (LIMITED MEMORY) są systemami AI, które potrafią wykorzystać doświadczenia z przeszłości do podejmowania decyzji, (5) jak np. chatbot określane mianem wirtualnych asystentów, czy też asystentów cyfrowych jak Siri firmy Apple, czy Alexa firmy Amazon. W przeciwieństwie do prostych, jednozadaniowych chatbotów, koncentrujących się na realizacji tylko jednej funkcji nie tylko inicjują i podtrzymują one konwersacje z klientami w oparciu o dostępne im bazy danych, szablonów odpowiedzi najbardziej pasujących do zadanego pytania, czy też ogólnych sformułowań awaryjnych w odpowiedzi na pytania niestandardowe. (31) Chatboty jak Siri i Alexa są przykładem bardziej wyrafinowanych chatbotów, systemów zdolnych wykorzystywać do podejmowania decyzji nie tylko dane z dostępnej bazy, ale wcześniejsze doświadczenie, (5) ponieważ analizują wypowiedzi rozmówcy i na ich podstawie próbuje się nauczyć jak reagować, by w przypadku kolejnej, podobnej sytuacji być w stanie udzielić możliwie trafnej odpowiedzi konstruowanej w oparciu o zebrane wcześniej dane/informacje. (27) Uwagę zwraca to, że jak informują ich twórcy, są świadome kontekstu. Ich działanie oparte jest bowiem nie tylko na regułach i wykorzystaniu rozumienia języka naturalnego NLP (ang. Natural Language Processing, czyli “przetwarzanie języka naturalnego”) i ML (ang. Machine Learning’u, tj. uczenia maszynowego stosowanego do uczenia botów w oparciu o dostępne bazy danych). Chatboty tej generacji swoje działanie opierają także o NLU (ang. Natural Language Understanding, tj. rozumienie języka naturalnego), które odpowiada za kolejny krok w kontekście interakcji między człowiekiem, a maszyną, ponieważ tak działająca sztuczna inteligencja poszerza swoją wiedzę i umiejętności o dotychczasowe doświadczenia, a więc trochę tak jak człowiek uczy się wraz z upływem czasu. (17 i 31)
Z sztuczną inteligencją działającą na takich samych zasadach, jak w/w chatboty, mamy już dziś do czynienia także w niektórych projektach samochodów autonomicznych przykładowo w kontekście decyzji o zmianie pasa. (5) Doświadczeni kierowcy wszak doskonale zdają sobie sprawę, że sytuacje na drodze są bardzo różne co wiąże się z tym, że poza wynikającymi z kodeksu ruchu drogowego zasadami dochodzą i inne czynniki. Z jednej strony ludzki, jak np. nadmierna prędkość innych uczestników ruchu drogowego, zaśnięcia, czy też zasłabnięcia kierowców prowadzących inny pojazd, etc., a z drugiej jakość dróg, stan samochodu, czy też sytuacja na drogach związana z warunkami pogodowymi, stanem nawierzchni, itp. W przypadku sztucznej inteligencji opartej wyłącznie o NLP i ML, bez uwzględnienia choć NLU system mógłby sobie nie poradzić w okolicznościach nie standardowych. W zasadzie jest to więcej niż pewne.

Teoria umysłu (THEORY OF MIND), w tym przypadku powiemy o sztucznej inteligencji, która potrafi odczytać ludzkie emocje, myśli, a nawet oczekiwania, aby być w stanie wchodzić w interakcje społeczne. (5) Robi to na takiej zasadzie jak człowiek, który jest w stanie reagować uwzględniając emocje, a więc jednocześnie komunikaty werbalne i niewerbalne rozmówcy, wykazując   empatię. Na dzień dzisiejszy nie ma, albo nie wiemy o tym, że istnieje AI funkcjonujące w tym wymiarze dokładnie tak jak człowiek, ale… wiemy, że to może być tylko kwestia czasu. Już dziś mamy do czynienia ze sztuczną inteligencją analizującą wyraz twarzy, barwę głosu, jak i mówione oraz pisane słowa pod kątem treści – znaczenia słów, ich charakteru negatywnego, bądź pozytywnego. Niemniej jednak maszyny te, o których wiemy, w kontekście interpretacji słów działają jeszcze trochę jak obcokrajowcy posługujący się językiem, który nie do końca znają, rozumieją. Te same słowa, ale i gesty mogą mieć różne znaczenie. Przykładowo maszyna w oparciu o analizę zdjęć, wyrazów twarzy może stwierdzić, że twarz z kącikami ust uniesionymi do góry to, twarz kogoś zadowolonego, nawet gdy w rzeczywistości miałaby do czynienia z uśmiechem wymuszonym, czy szyderczym. (20) Natomiast w kontekście analizy treści słów dobrym przykładem może być case zablokowania, jakiś czas temu, dość popularnego kanału poświęconego rowerom na Youtubie ze względu na często występujące słowo „pedały”. System w swoim słowniku miał je ponoć zakwalifikowane jako negatywne określenie wobec jednej z mniejszości sexualnej – gejów. (13)

Pośród systemów AI, może jeszcze niedoskonałych, ale w zamyśle weryfikujących emocje ludzkie można wymienić takie jak np. system obsługi klienta w centrach organizacji Roads and Transport Authority w Dubaju. Celem określenia satysfakcji klientów kamery wzbogacone o sztuczną inteligencje miały za zadanie porównywać emocje ludzi wchodzących i wychodzących z budynku. Co więcej w przypadku, gdy z analizy systemu wynikało, że poziom zadowolenia w danym czasie jest poniżej określonej wartości system „alarmował” pracowników centrum sugerując potrzebę podjęcia odpowiednich działań pozwalających na podniesienie jakości obsługi, aby wspomniany poziom zadowolenia odwiedzających budynek wzrósł. (20) Trzeba przyznać, że z punktu widzenia marketingowego, ale i po prostu biznesowego, takie dane, dodatkowo uzupełnione o rekomendacje co do działań, jakie powinniśmy podjąć, mają duże znaczenie.
Tego typu przykładów systemów AI jest więcej. Nowozelandzki bank BNZ, przy wykorzystaniu technologii biometrycznych stworzył inteligentną stronę www., która analizowała emocje swoich klientów w odniesieniu do treści związanych z rozmaitymi, trudnymi zagadnieniami finansowymi. W oparciu o odnotowaną przez system reakcje użytkownika, ten sam system wskazywał temat oraz doradcę, który ze względu na określone kryteria powinien być najlepszym, a uściślając najefektywniejszym w danym przypadku. Warto dodać, że im bardziej niekomfortowo , wg systemu, czuli się użytkownicy, tym bardziej system wskazywał potrzebę organizacji indywidualnych spotkań z przedstawicielem banku i to nie pierwszym lepszym pracownikiem, ale takim, który zgodnie z danymi dostępnymi dla AI, najlepiej odnajdzie się w relacji z danym klientem, w określonej sytuacji. (32) Z całą pewnością takie podejście nie jest obojętne w kontekście efektywności pracy. Wprost przeciwnie, może wpłynąć na podniesienie poziomu sprzedaży.
Jeśli chcielibyśmy znaleźć jeszcze inne przykłady to, można się jeszcze przyjrzeć rozwiązaniu Google Perspective stworzonemu w ramach projektu Alphabet oraz Jigsaw, ściśle związanego z Google. System ten ma na celu rozpoznawania w sieci Internet ofensywnych zachowań internautów, inaczej mówiąc weryfikować sentyment treści. Działanie tego rozwiązania, opartego na sieciach neuronowych, pozwala wyłapać wypowiedzi o charakterze hejtu oraz trollingu. W swoim działaniu wykorzystuje modele uczenia maszynowego, co daje możliwość ogólnej oceny wpływu określonych komentarzy na możliwy przebieg dalszej konwersacji. Co więcej zakłada się, że system ten docelowo powinien być w stanie zweryfikować symptomy wskazujące na zbliżające się wyładowania emocjonalne o charakterze negatywnym, jak potencjalne konflikty i podejmować działania zapobiegające temu – odpowiednio interweniować. Swoje funkcjonowanie ma opierać o określone frazy oznaczone jako te o wydźwięku pozytywnym bądź negatywnym. (14 i 15) Innymi słowy system ten powinien pomóc w eliminacji niepotrzebnych konfliktów w sieci Internet.
Jak widzimy, choć jak się zdaje, sztuczna inteligencja wydaje się, że jeszcze nie działa tak instynktownie jak my ludzie, że nie ma łatwości wyłapywania kontekstu w odniesieniu do danych wątków to… Jak wskazują badania, chociażby w nawiązaniu do rozwiązania podanego w ostatnim przykładzie AI, można założyć, że sztucznej inteligencji nie jest już tak daleko do człowieka. W przypadku tego konkretnego sytemu, w ramach testów przeprowadzonych na Wikipedii, ludzie co prawda byli w stanie wykryć poprawnie 72proc. z przypadków, gdzie dyskusje zmierzały w negatywnym kierunku, ale AI już 65proc., (14) pomimo że mogłoby się wydawać, że ta technologia jeszcze „raczkuje” w obszarze weryfikacji emocji człowieka.
W tym miejscu należy dodać, że w zestawieniu dziesięciu trendów technologicznych na rok 2019 Gartnera odnajdujemy informacje, z których wynika że przyszłość w kontekście relacji człowieka i sztucznej inteligencji to, nie tylko weryfikacja emocji ludzkich przez AI, o czym mowa powyżej. Prognozują, że już od 2028 roku będziemy mieć do czynienia ze swoistym „oferowaniem doświadczeń” przez sztuczną inteligencje – usług, które będą prowadzić do wywoływania określonych emocji w człowieku. Technologie immersyjne pozwolą na wypracowanie całkiem nowych scenariuszy biznesowych, ale także metod pracy i form rozrywki opartych o możliwość rozpoznawania twarzy, czy też emocji użytkowników. (18) Zwracają na to uwagę choć na ten moment może się wydawać, że sztuczna inteligencja jest na początku drogi w tym obszarze.
W publikacji trendów na 2020 r. Gartner w kontekście technologii AI prognozuje, że już do końca 2024 r., aż 75 proc. przedsiębiorstw podejmie się choćby pilotażowo operacjonalizacji sztucznej inteligencji, w związku z czym będziemy świadkami pięciokrotnego wzrostu strumieni danych i infrastruktury analitycznej. (21) W związku z czym, można się domyślać, że mowa tu nie tylko o informacjach z baz danych tekstowych, statycznych, ale i o tych czerpanych z obserwacji zachowań ludzkich oraz tych wyciąganych przez maszyny na podstawie doświadczeń. Czy to oznacza, że nasz współczesny świat, w krótkim czasie przeobrazi się w rzeczywistość znaną nam do tej pory z opowieści science fiction? Nie można tego wykluczyć.
Musimy mieć też świadomość, że pomimo iż przedsiębiorstwa sukcesywnie czynią postępy w kontekście rozwoju i wykorzystania technologii AI to, jednak też popełniają szereg błędów. Twórcy technologii AI wciąż szukają odpowiedzi na szereg pytań. Sposobów na to, by maszyna stała się bytem niemal identycznym jak człowiek pod kątem odczytywania i przeżywania emocji, ale sprawniejszym niż my w wymiarze analitycznym.

Samoświadomość (SELF-AWARENESS). W tym przypadku powiemy o sztucznej inteligencji z własną, superinteligentną świadomością. Odczuwającą i zdolną do refleksji. (5) Innymi słowy o maszynie będącej zupełnie jak człowiek. Na ten moment nie ma jeszcze informacji o tym, by takowy byt już istniał w świecie nam realnym. Niemniej jednak być może to tylko kwestia czasu.
Jak wynika z raportu Gartnera z lipca 2020 sztuczna inteligencja, jej zastosowanie staje się coraz bardziej powszechne w naszej rzeczywistości. Dynamika rozwoju tej technologii nie jest mała. Wraz z pojawianiem się nowych rozwiązań, przedsiębiorstwa dostrzegają jej wartość w kontekście rozwoju biznesu, ale też wciąż stajemy przed nowymi wyzwaniami. (7) Jak się przekonamy w dalszej części tego artykułu, wyzwaniami nie tylko technologicznymi, ale i etycznymi.

Sztuczna Inteligencja – aspekty etyczne i prawne
Sztuczna inteligencja niesie ze sobą szereg możliwości, ale także zagrożeń. Jej funkcjonowanie rodzi wiele pytań i to nie tylko technologicznych, ale też tych odnoszących się do aspektów etycznych i prawnych. Przyglądnijmy się im teraz przez pryzmat różnych obszarów zastosowania AI, nie tylko tych, o których była już mowa. Pośród wspomnianych aspektów przyjrzyjmy się też wybranym z wyróżnionych w Założeniach do strategii AI w Polsce, w ramach Planu działań Ministerstwa Cyfryzacji z listopada 2018 oraz kilku innym, które coraz częściej wyłaniają się dziś, gdy analizujemy zakres i kierunki rozwoju AI:
1. osobowość prawna, czy też jej brak w kontekście AI. Problematycznym może być to w przypadku określania odpowiedzialności za niepożądane działania AI, np. odpowiedzialności karnej inteligentnych aut, których decyzje byłyby powodem wypadków będących następstwem błędnych decyzji AI. Przy założeniu, że sztuczna inteligencja jest bytem samouczącym się, a więc tylko w początkowej fazie tworzenia jest dziełem twórcy, gdyż kształtuje się jak człowiek w oparciu o szereg danych i czynników zewnętrznych to, kto jest odpowiedzialny za jej błędy? Jej twórca, czy ona jeszcze nie osoba, ale jednak byt inteligentny, byt który się rozwija, nawet jeśli na ten moment nie doświadcza jeszcze emocji? Na dzień dzisiejszy AI nie ma osobowości prawnej.

2. poufność i anonimizacja danych (m.in. zgodność z RODO). (11) Uściślając kwestie związane z tym, do jakich danych AI może mieć dostęp i w jakim zakresie, z punktu widzenia etycznego i prawnego, może się nimi posługiwać? Kto może, czy też kto powinien decydować do jakich danych będzie mieć dostęp dane rozwiązanie oparte o AI? W tym kontekście znów należy też wrócić do punktu pierwszego, bo na kim spoczywa odpowiedzialność za poszczególne działania AI na twórcy, czy na jego autonomicznie rozwijającym się dziele?

3. prawa autorskie (11) – zagadnienie to brzmi może jeszcze nieco futurystycznie, ale… czy można wspomniane prawa przyznać systemowi AI, który jak w przypadku Google stworzył nowy system, czy też powinny być one na wyłączność dla ludzi, których dziełem jest system matka? Jeśli dla ludzkich twórców systemu „matka” to, pewnie tak samo powinno być w przypadku błędów/wykroczeń prawnych… A może nie? Z całą pewnością i w tym obszarze potrzebne są regulacje prawne.

4. dyskryminacja (11) – zgodnie z założeniami AI jest systemem samouczącym i wysoko analitycznym dzięki czemu może wyciągać wnioski oparte na dostępnych dlań danych. Dane te mogą być bądź ograniczone, bądź tendencyjne co niesie ze sobą wspomniane ryzyko dyskryminacji np. ze względu na płeć, czy pochodzenie (wymiar rasowy). Zwłaszcza, jeśli system nie uwzględnia czynników ludzkich, jak m.in. emocje. Nie wspominając o tym, że nie bez znaczenia w kontekście uczenia się AI ma czynnik ludzki, a mianowicie kto i wg jakiego klucza dobiera i udostępnia bazy danych dla danego systemu. Na przykładzie ludzi widzimy jak różnie postrzegamy rzeczywistość która nas otacza, jak różne mamy poglądy w zależności od środowiska, w jakim się kształtujemy, danych nam dostępnych, wydaje się więc, że przypadku uczenia się sztucznej inteligencji może być podobnie.

5. naruszenie dobrostanu subiektywnego jednostki, innymi słowy poczucia szczęścia (11) – aby zrozumieć o co chodzi, w kilku słowach wyjaśnijmy sobie, czym jest dobrostan subiektywny. Zgodnie z triadyczną koncepcją C.L.M. Keyes i M.B. Waterman’a odnosi się on do trzech stref dobrostanu emocjonalnego, psychologicznego oraz społecznego. (2) Pod tym pojęciem kryje się pozytywna ocena jednostki na swój temat, dotycząca zarówno funkcjonowania w wymiarze fizycznym, jak i psychicznym. A co za tym idzie poczucie zadowolenia z siebie i swojego życia w odniesieniu do realizacji potrzeb, podejmowanych wyzwań, funkcjonowania społecznego, a więc w relacjach z innymi, pełnionych ról i zajmowanych pozycji, procesu/przebiegu ich osiągania, czy wreszcie w obszarze poczucia tożsamości. (1) Jak zapewne wiemy jest to, dość delikatna konstrukcja, którą stosunkowo łatwo zburzyć, a ciężko odbudować. Można ją, a więc człowieka zniszczyć chociażby złym słowem, subiektywnymi opiniami opartymi o niepełne dane, czy też wyrafinowanymi celowymi działaniami – opiniami, sądami i działaniami nie uwzględniającymi czynników ludzkich, jak np. emocje. Takie destruktywne konsekwencje mogą być efektem działań człowieka, który teoretycznie przynajmniej powinien mieć świadomość, że może kogoś skrzywdzić, zranić w wymiarze emocjonalnym, psycho – społecznym. Człowieka, który powinien rozumieć, że nawet przemoc słowna może mieć przełożenie nie tylko na stan psychiczny, ale i fizyczny jednostki, może nawet doprowadzić do śmierci. Tym bardziej w przypadku maszyny – sztucznej inteligencji, która nawet jeśli jest w stanie w krótszym czasie przetworzyć więcej danych niż człowiek, to bez brania pod uwagę czynników ludzkich, jak wyżej wspomniane emocje może zniszczyć dobrostan subiektywny jednostki przykładowo podejmując działania jak hate, czy trolowanie w sieci Internet. Potocznie mówilibyśmy w tym kontekście o bezdusznym bycie. I znów otwartym pozostaje pytanie, kto byłby za to odpowiedzialny? Jakie regulacje prawne powinny powstać w tym kontekście?

6. eksperckość – krzywdzące opinie, wnioski, sądy, czy też osądy – ze względu na umiejętności analityczne AI, pośród obszarów zastosowań sztucznej inteligencji uwzględnia się m.in. sądy oraz firmy i działy HR. Niewątpliwie sztuczna inteligencja jest w stanie szybciej zapoznać się z dostępną dokumentacją na temat danych przypadków, danych osób, niż człowiek i na podstawie dostępnych materiałów. Co więcej dostępną wiedzę z posiadanych dokumentów jest w stanie uzupełnić o dane, które wyszuka w sieci Internet, np. w mediach społecznościowych. Co za tym idzie, na podstawie zebranych informacji może przedstawić wnioski i rekomendacje dotyczące procesów sądowych, czy rekrutacyjnych. Niemniej jednak, przynajmniej na dzień dzisiejszy nie jest w stanie uwzględnić czynników ludzkich, jak m.in. wspomniane już wcześniej emocje. Nawet jeśli jest potrafi analizować mimikę twarzy, barwę głosu człowieka to, przynajmniej na dzień dzisiejszy, ma jeszcze problem z odróżnieniem uśmiechu szczerego od sztucznego wymuszonego, bądź sarkastycznego, czy nerwowego. Nie posiada także ludzkiej intuicji.
Opinie maszyny nie muszą, ale mogą być błędne i krzywdzące, więc znów jak bumerang wraca pytanie, kto ma wziąć odpowiedzialność za nie? Przecież, podobnie jak ludzkie osądy, mogą nawet zrujnować życie danego człowieka. W jakim stopniu można się na nich opierać?
Zgodnie z podejściem holistycznym człowiek stanowi jedną funkcjonalną całość, w ramach której współistnieją i są ściśle powiązane sfera emocjonalna, biofizyczna, poznawcza i społeczna. (10) Niewątpliwie, przynajmniej na ten moment, odróżnia to człowieka od maszyny ograniczonej właściwie do strefy poznawczej.

7. automatyzacja kontaktu z klientem – dziś wydaje się, że nie wszyscy jesteśmy świadomi tego, że konsultant, który odzywa się do nas z zapytaniem typu „Witaj, w czym mogę pomóc?”, gdy odwiedzamy daną stronę www. wcale nie jest człowiekiem tylko botem. Eksperci zwracają uwagę na to, że jednostki posiadające osobowość prawną, powinny mieć możliwość podjęcia decyzji, czy chcą podejmować interakcje z systemem, czy też z człowiekiem. (6) Innymi słowy nie koniecznie powinna być nam ludziom narzucana rozmowa z maszyną, która w rozmowie z nami opiera się o gotowe szablony odpowiedzi, a w razie problemów wyszukuje jakichś najbardziej uniwersalnych sformułowań z dostępnej jej bazy danych. A już na pewno powinniśmy mieć świadomość tego z kim rozmawiamy, by później nie czuć się oszukanymi.

8. dostęp do baz danych i zasady ich zbierania – to kolejny problematyczny obszar. Już istniejące zapisy prawne, jak chociażby RODO, niosą ze sobą pewne ograniczenia. Tymczasem opinie i rekomendacje AI są ściśle powiązane z dostępnymi im danymi. W jakich przypadkach maszyna mogłaby mieć dostęp przykładowo do danych poufnych? Czy w ogóle powinniśmy do tego dopuścić? A jeśli tak to na jakich zasadach?
Skoro sztuczna inteligencja może uczyć się nie tylko na podstawie tekstowych baz danych, ale także obrazów, mimiki twarzy, barwy głosu to, czy etycznym i zgodnym z prawem byłoby jej wykorzystanie np. do analizy zachowań pracowników, czy to w czasie pracy w biurze, czy zdalnie? Analiza aktywności w pracy, ale też symptomów mogących wskazywać na stan zadowolenia, bądź nie pracownika, na stan jego zdrowia, etc., mogłyby umożliwić pracodawcy dostęp do o wiele szerszych danych dotyczących wydajności i potencjalnych zagrożeń w kontekście pracy poszczególnych pracowników. Czy nie naruszałyby jednak obszaru prywatności jednostki? Na jakich zasadach prawnych pracodawca mógłby mieć dostęp do takich danych? Jak podawałam w jednym ze wspomnianych wcześniej przypadków z taką częściową analizą zachowań ludzkich i wdrażania procedur naprawczych mamy w przypadku centrów organizacji Roads and Transport Authority w Dubaju, gdzie wykorzystywano już kamery wzbogacone o sztuczną inteligencje do weryfikacji poziomu satysfakcji klienta. W tym przypadku mówimy o działaniach raczej wizerunkowych, ale gdyby AI analizowało zachowania i emocje pracowników wówczas uzyskane dane pozwoliłyby na coś więcej. I tu kolejne pytanie, na coś więcej pracodawcy, czy pracodawcom obecnym i przyszłym? Kto i na jakich zasadach miałby dostęp do takich analiz danego rozwiązania AI?

9. monitorowanie, czy raczej śledzenie użytkowników AI, czy też urządzeń z wdrożonymi rozwiązaniami AI – mowa tu zarówno o monitorowaniu aktywności jednostek ludzkich w sieci Internet, jak i poza nią co dzieje się tak naprawdę już dziś. Kiedyś marzeniem było, aby mieć swój komputer, na swoim biurku. Internet… na początku był przestrzenią luksusu dostępną niemal wyłącznie w kafejkach internetowych. Dziś mini komputery z dostępem do sieci Internet większości z nas towarzyszy na co dzień w kieszeniach, torebkach, generalnie „pod ręką”. Mowa oczywiście o smartfonach i iPhonach, z którymi wielu z nas prawie się nie rozstaje. To nic innego jak urządzenia, które mogą być doskonałym narzędziem do monitorowania naszej aktywności. Przykładowo z aplikacjami jak Mapy Google, które pytają nas o opinie co do miejsc, w których, czy też obok których byliśmy przed momentem pod pretekstem dania nam możliwości wyrażenia swojej opinii.

10. manipulacje – oparte o wiedzę nt. użytkowników m.in. w obszarze działań biznesowych i marketingowych od dopasowania treści do zainteresowań użytkowników (np. filmów na Youtube) po manipulacje danymi, do których może mieć dostęp sztuczna inteligencja, aby ta wydała osądy korzystne dla danego podmiotu, choć nie koniecznie w pełni zgodne z prawdą. Sieci neuronowe AI uważa się za wspaniałe narzędzie w obszarze prognozowania (pogody, notowań na giełdzie, wyników wyborów, kursów walut, skuteczności planowanych interwencji medycznych, etc.), (9) ale jeśli np. ze względów prawnych (ochrona danych osobowych, etc.) system nie będzie miał dostępu do pełnych danych wówczas może wyciągać i rekomendować błędne wnioski. Z drugiej strony czym do bardziej newralgicznych danych będzie mieć dostęp AI, tym bardziej łakomym kąskiem będzie dla rozmaitych podmiotów, organizacji. Wyzwaniem dla hakerów.

11. bezrobocie – rozwój technologiczny może się przyczynić do zmniejszenia zatrudnienia i to nie tylko na szeregowych stanowiskach produkcyjnych w fabrykach. Możemy mieć do czynienia z sytuacją typu mniejsze zatrudnienie, a mimo to większa wydajność, co oczywiście wydaje się być pozytywne z punktu widzenia biznesu, (4) ale nie koniecznie z poziomu poszczególnych jednostek. Tworzenie się rynku pracy pracodawcy, może pociągnąć za sobą obniżanie się poziomu wynagrodzeń. Niemniej jednak państwa, które znajdą się w czołówce pośród tych stosujących AI staną się nie tylko liderami, ale i bardziej atrakcyjnymi partnerami do współpracy. Innymi słowy rozwój AI ma ogromne znaczenie dla kraju z punktu widzenia gospodarki, ale i bezpieczeństwa. Otwartym pozostaje jednak, w jak wielu innych przypadkach oraz powracające jak bumerang pytanie o odpowiedzialność karną w przypadku błędów popełnionych przez AI, a więc byt samouczący się bez osobowości prawnej.

12. marketing i sfera biznesu – rządzą się one swoimi prawami, opierając się o takie aspekty jak: atrakcyjność, konkurencyjność, strategia, realizacja celów. Sięgają po rozmaite narzędzia, nie zawsze do końca pamiętając o aspektach etycznych i prawnych, nie zawsze zwracając uwagi na ludzkie emocje. Nierzadko korzystają z kruczków prawnych. Takie akty prawne, jak RODO, mogą stanowić dla nich utrudnienie, pewną barierę w kontekście pozyskiwania danych, a tym samym poprawności w kontekście wyciąganych przezeń wniosków, rekomendacji.
AI z jednej strony może stać się narzędziem do zarabiania dla danej firmy, jak autonomiczne samochody, systemy do monitorowania oraz analizy aktywności użytkowników i przedstawiania na tej podstawie rekomendacji. Z drugiej strony systemem pozwalającym na monitoring i manipulacje. Co więcej w związku z tym, że jest technologią samorozwijającą się, a nawet potrafiącą samodzielnie stworzyć inny byt („swoje dziecko”) może się okazać, że my ludzie będziemy mieć problem z jej kontrolowaniem, nie wspominając już o poruszanej już niejednokrotnie kwestii odpowiedzialności prawnej za dane działania.

13. problem z odróżnianiem tego co dzieje się naprawdę, a co wirtualnie – ten aspekt niepokoi wielu psychologów. Rzeczywistość rozszerzona wspierana przez AI wydaje się stanowić w tym kontekście jeszcze większe zagrożenie, niż uzależnienia od gier komputerowych, czy mediów społecznościowych, których treści mogą wpływać na funkcjonowanie jednostki w świecie realnym. W tym bowiem przypadku może łatwo dojść do zatracenia, utraty poczucia rzeczywistości zwłaszcza, że rozszerzoną rzeczywistość z powodzeniem można wykorzystać nie tylko w rozwiązaniach dla biznesu, czy medycyny, ale także w sektorze rozrywki i bawić się nią, czy też w jej ramach. (36, 37 i 38) Umysł ludzki da się oszukać zwykłymi sztuczkami magicznymi, a co dopiero dzięki takiej technologii. Gdzie leży granica? Nie ma wątpliwości, że i w tym kontekście potrzebne są regulacje prawne.

14. uzależnienie – nowoczesne technologie potrafią uzależniać jak używki. Sztuczna Inteligencja, może uzależniać bezpośrednio przykładowo w ramach sektora usług rozrywkowych, bądź pośrednio na przykład targetując treści w sieci Internet tak, by docierały do nas w pierwszej kolejności te, którymi jesteśmy szczególnie zainteresowani, czy też zainteresowany jest reklamodawca. Może targetować nam dane przekazy analizując przy tym nie tylko nasze zachowania, jako użytkowników danych stron www., ale i być może mimikę twarzy, barwę głosu, etc. – nasze reakcje. Zwłaszcza, że mini komputer, jakim jest smartfon, czy iPhone mamy niemal stale przy sobie i to stale z szeregiem aplikacji, w tym aplikacji monitorujących. W obliczu tych danych z całą pewnością jesteśmy świadomi tego, że konieczne są regulacje prawne dotyczące chociażby tego od jakiego wieku człowiek może mieć kontakt ze sztuczną inteligencją bez nadzoru rodzica, czy opiekuna prawnego. Zaznacza się także znowu potrzeba regulacji prawnych w obszarze prawa do świadomości z kim rozmawiam – z człowiekiem, czy z maszyną.
Oczywiście trzeba wiedzieć, że AI to nie tylko zagrożenie w kontekście uzależnienia. To też duży potencjał w kontekście leczenia uzależnień. Już dziś istnieją systemy oparte o technologię AI, które stosuje się w terapii uzależnień, jak polska aplikacja mobilna opracowana w oparciu o technologie AI w ramach projektu addictions.ai (dostępna pod tym linkiem: https://hh24.pl/ ). W przeciwieństwie do amerykańskiego odpowiednika systemu, którego głównym zadaniem jest wspieranie uzależnionych w mediach społecznościowych, polski system wykorzystuje zaawansowane algorytmy pozwalające wychwycić sygnały wskazujące na możliwość złamania abstynencji przez daną jednostkę. (19 i 39) Jest to więc aplikacja na telefon, która jeśli nawet uzależni od swojej obecności to, w wymiarze terapeutycznym będzie to zapewne bardzo korzystne 🙂 Stanowi bowiem efektywny system predykcji oraz prewencji załamań abstynencji, nawrotów w przypadku leczenia uzależnień od alkoholu.

15. medycyna – coraz częściej mówi się o stosowaniu sztucznej inteligencji w procesie leczenia w kontekście (9):
a) diagnostyki pacjentów na podstawie różnych danych zebranych na podstawie rozmaitych badań (od podstawowych badań krwi, po USG, czy rezonans magnetyczny) oraz obserwacji wielu pacjentów – przebiegu chorób, różnych symptomów, które w poszczególnych przypadkach przepowiadały takie, a nie inne scenariusze rozwoju określonych chorób,
b) prognozowania w inżynierii biomedycznej,
c) precyzyjnego sterowania aparaturą terapeutyczną, czy też diagnostyczną, chociażby w przypadku zabiegów chirurgicznych.
W odniesieniu do powyżej wyróżnionych obszarów rodzą się pytania natury etycznej i prawnej jak m.in.: Czy system AI można traktować, jako wyrocznie w kontekście diagnostyki, czy raczej system wspierający lekarza? Co w przypadku, gdy z jakiegoś powodu precyzyjne sterowania aparaturą przy wsparciu AI okaże się nie być wystarczająco precyzyjne? Czy też co będzie jeśli implant, bądź jakaś aparatura medyczna stworzone przy wykorzystaniu AI w ramach inżynierii biomedycznej okażą się działać niewłaściwie? Co jeśli przykładowo biomateriały, czy też rozwiązania biomechaniczne wpłynęłyby, czy też zaczęły wpływać na zmianę zachowań jednostki, bądź jej organizmu w sposób niekontrolowany i nie koniecznie postrzegany jako pożądany? W tych i innych przypadkach znów należy zadać sobie pytanie, kto ponosiłby odpowiedzialność w tego typu przypadkach? Twórca systemu, lekarz, czy sztuczna inteligencja jako pewien byt, choć na ten moment bez osobowości prawnej?
Poza tym, warto też pochylić się nad kwestią tego jak wielki wpływ może mieć w przyszłości AI na funkcjonowanie człowieka? Od sieci neuronowych pozwalających na monitorowanie naszej aktywności, a być może i sterowanie nią po kategoryzacje jednostek ludzkich według określonych danych analitycznych przykładowo eliminując jednostki słabe, bądź niewygodne dla danej władzy… Czy funkcjonowanie cyborgów pośród nas to już tylko kwestia czasu? Jeśli tak to, gdzie leży granica pomiędzy człowiekiem, a maszyną? Jak wiele w nas musi zostać z człowieka, a ile może stać się maszyną byśmy dalej byli ludźmi i posiadali prawa człowieka od osobowości prawnej począwszy?
Oczywiście te wszystkie pytania w kontekście AI w medycynie mogą brzmieć co najmniej abstrakcyjnie, ale dynamika rozwoju technologii jest ogromna. Przyjmuje się, że pierwszy komputer powstał w latach 1943-1945 ENIAC, był ogromny, bo zajmował aż 167 m2 (42 szafy z stalowej blachy; ponad 2,4 metra wysokości, 24 metry długości) . W latach 90-tych w Polsce na biurkach nawet w prywatnych domach zaczęły się pojawiać PECET’Y o wymiarach ok. 60 x 60 x 25cm, dziś mini komputery, jak smartfony, czy iPhony, określane przez niektórych mianem telefonów, mieszczą się w naszych kieszeniach. Sztuczna inteligencja zaś zaczyna prowadzić z nami konwersacje, gdy odwiedzamy strony www. oferujące czy to różnego typu produkty, czy usługi. Może też monitorować nasze codzienne aktywności. To wszystko zdecydowanie daje nam do myślenia.

Przyszłość jest bliżej niż myślisz
Dynamiczny rozwój technologiczny przyczynił się do tego, że sztuczna inteligencja już weszła w nasze codzienne życie, a właściwie to wchodzi kilkoma drzwiami równocześnie. Przez jedne po cichu, nie przyznając się wprost do swojej obecności jak np. chatboty na różnych stronach www., przez inne z hukiem z zapowiedziami o jej możliwościach i potencjale, jak w przypadku chociażby autonomicznych samochodów przyszłości, flot taxówek bez kierowców, jak w coraz bliższych już urzeczywistnieniu wizjach snutych przez Elona Muska, założyciela amerykańskiej firmy Tesla i jak się zdaje obecnie najbogatszego człowieka na świecie, wielkiego wizjonera.
Polska i nasza gospodarka, nie może być bierna wobec trendów światowych. Aby wzmacniać i budować swoją pozycje we współczesnym świecie musimy zadbać o to, by być w grupie państw rozwijających technologie AI. Jak wskazuje dyrektor Departamentu Analiz i Strategii, Polska Agencja Rozwoju Przedsiębiorczości, szacuje się, że do 2025 roku powinno powstać w naszym kraju 700 firm wykorzystujących sztuczną inteligencje. Mówi się wprost o potrzebie maksymalnego wykorzystania potencjału intelektualnego naszych rodaków w kontekście rozwoju technologii AI w różnych dziedzinach, w różnych obszarach. (28) W Polsce pośród rozpoznawalnych współcześnie osób zajmujących się tą technologią wymienić wskazanym jest przede wszystkim takie, jak Jarosław Królewski właściciel firmy Sinerise, która konsekwentnie tworzy oparty o AI swoisty ekosystem dla firm, czy Łukasz Grala CEO w TIDK oraz MVP Artificial Intelligence w Microsoft.
Podsumowując, na początku były marzenia, z których wyłoniło się w 1956r. pojęcie sformułowane przez Johna McCarthhy, a mianowicie Artificial Intelligence (AI), czyli Sztuczna Inteligencja (SI). Rachunek prawdopodobieństwa i mashin learning stały się narzędziem do rozwoju Sztucznej Inteligencji, ale też do powstania jej pierwszych dzieci. W 2018r. głośno było o AutoML naukowców z zespołu Google Brain i systemie detekcji obiektów, będącym pierwszym dzieckiem tej sztucznej inteligencji, a nazwanym NASNet. Jak podano w mediach, system ten przewyższał swoimi możliwościami wszelką konkurencję stworzoną przez człowieka. Rozpoczęto od analizy słów i obrazów, a finalnie ta sztuczna inteligencja potrafiła rozpoznać obiekty (ludzi, torebki, samochody, czy też światła sygnalizatorów na skrzyżowaniach). (26)
Dziś, nie zawsze tego świadomi, ale ze sztuczną inteligencją spotykamy się niemal na każdym kroku. Medycyna, marketing, sprzedaż i wiele innych obszarów, gdzie już jest, a jeszcze więcej, gdzie już wkrótce może się znaleźć. W jakich jeszcze? A to już zależy tylko od naszych potrzeb i naszej ludzkiej wyobraźni, a może… a może nie tylko od ludzkiej, ale i od samej Sztucznej Inteligencji…
Jak czytamy w Załączniku do uchwały nr 196 Rady Ministrów z dnia 28 grudnia 2020 r. (poz. 23) „Polityka dla rozwoju sztucznej inteligencji w Polsce od roku 2020”: „Proces transformacji cyfrowej społeczeństwa oraz gospodarka z udziałem algorytmów są wielkim wyzwaniem rozwojowym XXI wieku. (…) Gospodarka oparta na danych zmienia dotychczasowe zasady rozwoju. Jest to wielka szansa dla polskich firm i polskiej gospodarki…” (4), ale oczywiście nie tylko dla naszego kraju. Świat się zmienia i to dynamicznie, a obecna pandemia przyczyniła się do tego, że oswoiliśmy się bardziej ze współczesnymi technologiami, pojawiły się nowe potrzeby i nowe możliwości. Okazało się, że zdalnie można efektywnie pracować w o wiele większej ilości przypadków, branż, niż nam się wcześniej wydawało, choć oczywiście brakuje nam relacji międzyludzkich, co do których przekonaliśmy się jak bardzo ważne są one dla nas ludzi. Pomijając jednak aspekt ludzkich relacji przekonaliśmy się także oczywiście, że nawet drobna awaria, czy też świadome działania danych firm oferujących dostęp do mediów bądź systemów komunikacyjnych w sieci Internet, mogą w każdej chwili odciąć nam możliwość pracy online, zablokować możliwość głoszenia naszych opinii, poglądów publicznie i to nie tylko w przypadku naruszeń o charakterze etycznym w kontekście wypowiedzi, ale także tylko dlatego, że mogą. Chociażby ze względów politycznych. Tym bardziej istotnym wydaje się być, aby w świecie gospodarki opartej na danych, w polityce działań kraju dać nacisk na rozwój nowoczesnych technologii, rozwijać swoją AI, co wybrzmiało też w opublikowanym 12.01.2021r., a przywołanym powyżej, załączniku do uchwały nr 196 Rady Ministrów. „Polityka dla rozwoju sztucznej inteligencji w Polsce od roku 2020” wskazuje cele krótko, średnio i długoterminowe oraz działania, które powinny mieć miejsce, aby je osiągnąć. Warto się zapoznać z tym dokumentem.
Ludzkość stanęła u progu czwartej rewolucji przemysłowej. Niezwykle istotną rolę zdają się w niej odgrywać analityka Big Data oraz sztuczna inteligencja. (5) No właśnie… sztuczna inteligencja, a więc byty bez osobowości prawnej, które mogą trochę podobnie jak człowiek obserwować, analizować, ale i kształtować, zmieniać nasze otoczenie, opinie, poglądy, nasz świat.
Przyszłość jest zagadką. Póki co, my ludzie, mamy jeszcze na nią wpływ. Nie można jednak zapominać, że każda ludzka decyzja pośrednio lub bezpośrednio oddziałuje na szereg innych, na kształtowanie się naszej rzeczywistości, na to jaką rolę i miejsce w naszym życiu będzie zajmować, będzie odgrywać Sztuczna Inteligencja – algorytmy i rachunek prawdopodobieństwa…

autor tekstu: dr Ewelina Jurczak

Źródła:
1. Cierpiałkowska, L., Sęk, H., 2002, Orientacja na dobrostan i na cierpienie w rozwiązywaniu współczesnych problemów zdrowotnych. W: J. Brzeziński, H. Sęk,. (red.), Psychologia w obliczu przemian społeczno–kulturowych. Kolokwia Psychologiczne: Psychologia w obliczu zachodzących przemian społeczno-kulturowych, t. 10 (s.177–196). Warszawa: Wydawnictwo Instytutu Psychologii PAN.
2. Czapiński J., 1992, Psychologia szczęścia: Przegląd badań i zarys teorii cebulowej, Oficyna Wydawnicza Academos, Poznań
3. Kaplan A., Haenlein M. (2019) Siri, Siri in my Hand, who’s the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence, Business Horizons, 62(1), 15-25.
4. MONITOR POLSKI DZIENNIK URZĘDOWY RZECZYPOSPOLITEJ POLSKIEJ, Poz. 23, Warszawa, dnia 12 stycznia 2021 r., UCHWAŁA NR 196 RADY MINISTRÓW z dnia 28 grudnia 2020 r. w sprawie ustanowienia „Polityki dla rozwoju sztucznej inteligencji w Polsce od roku 2020”
5. PARP, Grupa PFR, 2019 Monitoring trendów w innowacyjności. Raort 7, w: https://www.parp.gov.pl/storage/publications/pdf/RAPORT_NSI_7_2019.pdf , 29.12.2020, godz. 14:51
6. Raport Ministerstwa Cyfryzacji, 2018, „Założenia do strategii AI w Polsce. Plan działań Ministerstwa Cyfryzacji.”, Ministerstwo cyfryzacji, Warszawa
7. Sicular Svetlana, Vashisth Shubhangi, 07.2020, Raport Gartnera, Hype Cycle for Artificial Intelligence
8. Stefanowicz B., 1993, Metody sztucznej inteligencji i systemy eksperckie, Monografie i opracowania, SGH, Warszawa
9. Tadeusiewicz R., 2008, 6.4.A. Sieci neuronowe i inne systemy sztucznej inteligencji dla medycyny, Inżynieria biomedyczna (dostępne online: https://www.academia.edu/37141965/Sieci_neuronowe_i_inne_systemy_sztucznej_inteligencji_dla_medycyny
10. Wojciechowska Ludwika, 2005, Teoria dobrostanu w badaniach rozwojowych nad rodziną: dobrostan rodziców w stadium pustego gniazda. [w:] PSYCHOLOGIA ROZWOJOWA, tom 10, nr 4, Wydział Psychologii Uniwersytet Warszawski, Warszawa
11. Założenia do strategii AI w Polsce Plan działań Ministerstwa Cyfryzacji, listopad 2018, Ministerstwo Cyfryzajcji
12. https://aibusiness.pl/czym-jest-uczenie-maszynowe-machine-learning/, 28.12.2020, 17:29
13. https://antyweb.pl/nowe-zasady-i-kary-youtube/ , 02.01.2021, godz. 22:05
14. https://antyweb.pl/sztuczna-inteligencja-trolling/ 02.01.2021, godz. 23:03
15. https://antyweb.pl/sztuczna-inteligencja-trolling/ 02.01.2021, godz. 23:03 ; https://www.dobreprogramy.pl/Google-Perspective-wykryje-obrazliwe-komentarze-to-koniec-internetowej-nienawisci,News,79397.html 02.01.2021, godz. 23:15
16. https://businessinsider.com.pl/technologie/elon-musk-ostrzega-przed-sztuczna-inteligencja/v63zvd0 30.12.2020
17. https://greenparrot.pl/blog/slownik-nowych-technologii/, 02.01.2021, godz. 12:09
18. https://itwiz.pl/gartner-10-trendow-technologicznych-na-rok-2019/ , 02.01.2021, 23:57
19. https://naukawpolsce.pap.pl/aktualnosci/news%2C78351%2Ceksperci-sztuczna-inteligencja-moze-wspomoc-leczenie-uzaleznienia-od , 13.01.2021, 22:16 ; https://antyweb.pl/alkyrecovery-dofinansowanie/ 13.01.2021, 22:17
20. https://plblog.kaspersky.com/emotional-ai/12558/ , 02.01.2021, godz. 22:08
21. https://w ww.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/ , 03.01.2021, 00:01
22. https://www.autocentrum.pl/newsy/sztuczna-inteligencja-w-samochodach-tesla-chce-byc-pierwsza/ , 29.12.2020, godz. 18:20
23. https://spidersweb.pl/2020/07/elon-musk-5-poziom-autonomii-tesla.html , 29.12.2020, godz. 18:20
24. https://www.benchmark.pl/aktualnosci/historia-rozwoju-komputerow-i-laptopow.html , 07.01.2021, godz. 21:21
25. https://www.computerworld.pl/news/AI-moze-wygrywac-z-czlowiekiem-rowniez-w-pokera,407188.html, 30.12.2020, godz. 18:50
26. https://www.geekweek.pl/news/2018-10-23/sztuczna-inteligencja-google-stworzyla-sobie-dziecko/, 28.12.2020, godz. 17:08
27. https://www.oracle.com/pl/chatbots/what-is-a-chatbot/ , 02.01.2021, godz. 11:49; https://www.zenithmedia.pl/sztuczny-inteligentny-czuly-czyli-emocjonalne-robotogaduly -w-natarciu/ 02.01.2021, godz. 21:30
28. https://www.parp.gov.pl/component/content/article/58357:do-2025-r-polska-bedzie-potrzebowac-ok-200-tys-specjalistow-zajmujacych-sie-sztuczna-inteligencja?utm_source=newsletter&utm_medium=email&utm_campaign=newsletter_par , 13.01.2021, 22:44
29. https://www.sztucznainteligencja.org.pl/definicja/sztuczna-inteligencja/ 30.12.2020, godz. 16:20
30. https://www.sztucznainteligencja.org.pl/mistrz-go-rezygnuje-powod-istota-nie-do-pokonania/ , 30.12.2020, godz. 17:39
31. https://www.oracle.com/pl/chatbots/what-is-a-chatbot/ , 02.01.2021, godz. 11:49
32. https://www.zenithmedia.pl/sztuczny-inteligentny-czuly-czyli-emocjonalne-robotogaduly-w-natarciu/ , 02.01.2021, godz. 22:45
33. https://wyborcza.pl/7,75400,24986504,koniec-swiata-zywych-pokerzystow-sztuczna-inteligencja-wygrywa.html , 30.12.2020, godz. 18:57
34. http://www.ai.c-labtech.net/sn/sneuro.html , 12.01.2021
35. https://przemysl-40.pl/index.php/2017/09/22/czy-sztuczna-inteligencja-i-robotyzacja-wyeliminuja-nas-z-rynku-pracy/ , 29.12.2020, godz. 16:32
36. https://aibusiness.pl/najciekawsze-aplikacje-do-rozszerzonej-rzeczywistosci/ , 14.01.2021, 21:10
37. https://przemyslprzyszlosci.gov.pl/po-co-mi-rozszerzona-rzeczywistosc/, 14.01.2021, 21:11
38. https://epicvr.pl/pl/wirtualna-rzeczywistosc-medycyna-vr-ar-i-nowe-technologie/ , 14.01.2021, 21:11
39. https://antyweb.pl/alkyrecovery-dofinansowanie/ 13.01.2021, 22:17