Sztuczna inteligencja stała się w ostatnich miesiącach czczonym „bóstwem”, w którym pokłada się wiele nadziei i wiarę, że „będzie lekiem na wszystko”. Urosło wokół niej mnóstwo mitów i przekonań. Ale można również odnieść wrażenie, że określenie „sztuczna inteligencja” używa się jak „wytrycha pasującego do każdego zamka”. Aby chociaż trochę uporządkować pojęcia i odpowiedzieć na pytanie czym jest sztuczna inteligencja (określana polskim skrótem SI lub angielski AI) potrzebowałem z porozmawiać z kimś, kto „w tym siedzi”. Zaproszenie do rozmowy przyjął Arek Flinik.

Posłuchaj podcastu

Pobierz mp3  Transkrypt

słuchaj na iPhone  Słuchaj na Android Słuchaj w Spotify

Według licznych doniesień prasowych oraz wystąpień publicznych sztuczna inteligencja ma już (nawet dzisiaj) sprzedawać, rekrutować, obsługiwać klientów, umilać nam czas. Jawi się zatem jako „ktoś/coś” idealny, kto przeniesie nas na nowy, wyższy poziom życia – efektywności, jakości.

Ale chwila, jeżeli koło wymyślił człowiek, samochód, maszyny i w końcu sztuczną inteligencje również tworzy człowiek  to czy  to coś wymyślonego / odkrytego ma zastąpić twórców? Co właściwie zostało odkryte i co to właściwie może? Czy to jest tylko samo „dobro”? Jak nie dać się omawiać i zwariować, bo jak powiedział Artur C. Clarke „Każda wystarczająco zaawansowana technologia jest nierozróżnialna od magii” a złośliwi mówią, że „sztuczna inteligencja to większość student wspomagany jakimś oprogramowaniem”.

Rozmawiamy o:

  • Różnych definicjach sztucznej inteligencji
  • O tym, że ludzie stali się doskonalsi w lataniu od ptaków
  • O inteligencji ludzkiej i maszynowej
  • Jak to jest z (samo)uczeniem się sztucznej inteligencji
  • Jak bot Microsoftu stał się rasistą?
  • Czym jest uczenie maszynowe?
  • Czy w Facebooku jest sztuczna inteligencja?
  • Jak sztuczna inteligencja „wygrywa” wybory prezydenckie
  • Czym jest mocna i słaba sztuczna inteligencja?
  • Ciemna strona sztucznej inteligencji
  • 3 prawa robotów i 23 zasady z  Asimolar
  • Jak sztuczna inteligencja może optymalizować planowanie podróży?
  • Wizja przyszłości – co zyskamy dzięki Sztucznej inteligencji?

W rozmowie wspominamy o:

Skąd pobrać podcast

Podcast dostępny jest dla Ciebie w wielu miejscach (i pracujemy, żeby było ich jeszcze więcej):

  • W serwisie Klientomania.pl – lista wszystkich podcastów
  • iTunes – dla użytkowników iPhone’ów i iPad’ów
  • W serwisie Stitcher – pobierz aplikację Stitcher dla Androida i innych modeli telefonów

Transkrypt

Arek Cempura:Dzień dobry Państwu, Arek Cempura. Witam w 56 odcinku Klientomanii. Dzisiaj mała zmiana – udało mi się z tego wątku wyprosić Macieja. Pozwolił mi być współprowadzącym, w związku z tym ponosi tego konsekwencje. Także dzisiaj jesteście Państwo skazani na spotkanie ze mną i moim gościem, Arkiem Flinikiem. Arku, przedstaw się naszym słuchaczom.

Arek Flinik:Witam wszystkich. Nazywam się tak, jak prowadzący, Arek. W tym momencie pracuję w firmie, które nazywa się Lekta.ai, gdzie zajmujemy się sztuczną inteligencją w kontekście prowadzenia rozmowy z człowiekiem, a z perspektywy tych ludzi  o prowadzeniu rozmowy z komputerem. Staramy się tworzyć technologie, które pozwolą zautomatyzować część procesów obsługi klienta tak, żeby klienci byli zadowoleni, mogli załatwić natychmiastowo dużo spraw, bez czekania w kolejkach o dowolnej porze dnia i nocy. To, na czym nam zależy to urzeczywistnić, urealnić tę konwersację, żeby była naturalna i przypominała rozmowę z człowiekiem i żeby nie był to taki prosty, oskryptowany scenariusz, tylko rozmowa, w której przynajmniej wydaje nam się, że po drugiej stronie jest coś, co rozumie o co nam chodzi, rozumie kontekst i stara się pomóc jak tylko się da.

Arek Cempura:Arku, jak wspomniałeś, ta rozmowa ma dwa ważne elementy. Po pierwsze będzie to rozmowa Arka z Arkiem, a tak naprawdę ważniejsze, co powiedziałeś w swoim przedstawieniu – chciałbym dzisiaj z Tobą porozmawiać o sztucznej inteligencji. Co to jest, ile jest inteligencji w tych rozwiązaniach, a ile jest sztuczności? Tym bardziej, że jeżeli teraz otwieramy jakiekolwiek strony internetowe, bierzemy w rękę gazety, czy słuchamy informacji, zewsząd otacza nas informacja, że sztuczna inteligencja to przyszłość, to zlikwidowanie pewnych miejsc pracy, ale jednocześnie stworzenie nowych.  Aby do tego przejść to porozmawiamy jeszcze o definicjach, ale mamy z Maciejem świecką tradycję, w której wypytujemy siebie sami czym zaskoczył Ciebie świat. I chciałbym Ciebie zapytać czym, Ciebie, Arku, zaskoczył świat?

Arek Flinik:To trudne pytanie, ale postaram się odpowiedzieć. W ostatnim tygodniu odbywały się targi Consumer Electronic Show w Las Vegas…

Arek Cempura:To tam, gdzie robot zabił robota?

Arek Flinik:Nie wiem, czy na tych targach robot zabił robota. W każdym razie na tych ludziach, ja osobiście nie byłem, ale widziałem i czytałem, ale zrobiło także na mnie duże wrażenie firma Impossible Foods, która ma misję, żeby stworzyć sztuczne mięso. Oczywiście jest wiele problemów związanych z produkcją mięsa, z którą są problemy ekonomiczne, ekologiczne, i etyczne. Niezależnie od tych powodów mają taką misję, żeby zatrudniać najlepszych specjalistów jeśli chodzi o badania w tej działce i żeby produkować coś, co będzie smakowało i działało tak, jak mięso, ale będzie dużo tańsze w produkcji i odpowiadało na wszystkie problemy. No i oczywiście powinno przekonać ludzi do tego, że jest mięsem i z relacji, które widziałem wychodzi na to, że im się udało. Co ciekawe, próbowali przeanalizować strukturę mięsa i znaleźć co w tym mięsie wpływa, że jest ten specyficzny smak mięsa i struktura i okazuje się, że podobno tym magicznym czynnikiem jest coś, co się nazywa heme. Jest to część hemoglobiny, ale nie tylko, co udało im się w jakiś sprytny sposób sztucznie wyprodukować jako ten ekstra składnik.

Arek Cempura:Teraz mówisz o tym że po prostu będę miał w domu komputer, w którym będę produkował sztuczne mięso i mówił, że dzisiaj będę chciał wołowinę, jutro wieprzowinę, naciskał przycisk i ona się tam produkuje…?

Arek Flinik:Wydaje mi się, że jesteśmy jeszcze daleko od tego. Jest tu mowa o produkcji przemysłowej i oni starają się mieć jakieś procesy technologiczne, które pozwalają produkować takie mięso na dużą skalę. Wydaje mi się, że to mięso jest produkowane i w Stanach Zjednoczonych można zjeść takie burgery, które zawierają ich własne mięso. Ale czy każdy w domu będzie mógł mieć taka maszynę? Wydaje mi się, że nie, bo byłoby to tak samo praktyczne jak posiadanie własnego ogródka, młynu i robienie własnej mąki. Wiadomo, że w pewnych aspektach ludzie lubią robić sobie takie rzeczy, ale żeby mieć cały komplet, to nawet jeśli ktoś to będzie miał, ale nie sądzę żeby wszyscy będą mieli taki model.

Arek Cempura:Jeżeli to się uda i to o czym mówisz będzie realne i się okaże, że jeszcze nie ma z tego żadnych negatywnych skutków dla człowieka to na pewno wegetarianie i ekolodzy będą wdzięczni tej firmie.

Arek Flinik:No pewnie tak i nie tylko oni.

Arek Cempura:Powiedziałeś pewną rzecz – sztuczna żywność to jest ciekawy temat. Myślę, że poszukamy i wrócimy do tego tematu i porozmawiamy o tym, co jeszcze sztucznego może być w naszym życiu. Powiem Ci czym mnie zaskoczył  świat. Mnie zaskoczył, albo oczekiwałem tego od lat, Bandersnatch na Netflixie, czyli połączenie filmu z grą. Bo w trakcie oglądania tego filmu mamy możliwość zdecydowania o losach bohatera filmu w danym momencie. To jest dosyć ciekawe doświadczenie szczególnie, jeżeli to się ogląda poprzez konsolę, czyli jeżeli Netflix jest uruchomiony na konsoli, to pad wcześniej sygnalizuje Ci, że dostaniesz informację o możliwości wyboru. Po pierwsze siedzisz w napięciu co się wydarzy po wyborze, którego dokonałeś, a po drugie w pewien sposób© jesteś wysterowany pewnym odruchem, gdzie system daje Ci sygnał, że będziesz podejmował decyzję. Ciekawostką, która ciągnie się dalej za Bandersnatchem, który jest w ramach serialu Black Mirror, który osobiście polecam, bo są tam różne rzeczy dotyczące sztucznej inteligencji, tam jest fajna rzecz, że Netflix został pozwany do sądu za naruszenie praw autorskich przez wydawców książki, która trochę przewija się w trakcie. Wydawca domaga się 25 milionów dolarów powołując się, że dzięki temu, że to była znana książka, przyznam, że o niej nie słyszałem, ale nie muszę wszystkiego znać, to właśnie domaga się takiej kwoty. Wydaje mi się, że wytworzył się szum medialny wokół tego i mam wrażenie, że Netflix był do tego przygotowany.

Arek Cempura:To tyle z takich zaskoczeń, przejdziemy do tematu głównego, czyli czym jest sztuczna inteligencja i w dużej mierze w ten świat wprowadzi nas Arek. Arku, mamy sztuczną inteligencję, czyli hasło znane. Co się pod tym kryje? Odnoszę wrażenie, że jest dużo nieporozumień, że tą definicją sztucznej inteligencji pokrywa się znacznie więcej niż by się wydawało. Po pierwsze, według Słownika Języka Polskiego sztuczna inteligencja, to dział informatyki badający reguły rządzące zachowaniami umysłowymi człowieka i tworzący programy lub systemy komputerowe symulujące ludzkie myślenie. To jest taka, wydaje mi się, podstawowa definicja. Natomiast jest druga definicja, którą nazywam definicją prześmiewców, czyli sztuczna inteligencja, to jest student wspomagany oprogramowaniem.

Arek Flinik:Myślę, że te skrajne definicje oddają spektrum wszystkiego, co dzisiaj nazywa się sztuczną inteligencją. Sam miałbym problem, żeby wymyślić dobrze czym jest sztuczna inteligencja, a wydaje mi się, że to jest bardzo nadużywane i sztuczna inteligencja i percepcja zmienia się z roku na rok, bo ludzie przywykają do pewnych technologii, które są inteligentne, a potem przestają być inteligentne…

Arek Cempura:Przepraszam, że Ci tu wtrącę – jeśli chcemy definicji, to chcielibyśmy cos, co jest niezmieniane. Chcielibyśmy mieć pewność, że zawsze, jak się spotkamy za rok, to posługujemy się tą samą definicją, tym samym odniesieniem. A mówisz, że ta definicja się zmienia. Z czego to wynika?

Arek Flinik:Wydaje mi się, że to, co się zmienia, to postrzeganie ludzi. Wydaje mi się, że wszystko sprowadza się do tego, że sztuczna inteligencja opiera się na pojęciu inteligencji i samo słowo inteligencja jest trudne do zdefiniowania, dlatego jak ludzie próbują określić co musielibyśmy stworzyć, żeby nazwać sztuczną inteligencją, to wymyślali przykłady zadań, problemów, które wtedy technologia nie potrafiła rozwiązać i powiedzieli, że jak robot będzie potrafił wygrać z człowiekiem w szachy to wtedy będzie można powiedzieć o tym, że jest inteligentny. Jak robot będzie potrafił słuchać drugiego człowieka i spisać transkrypcję tego, o czym człowiek mówi to jest to coś, co wymaga inteligencji i żadna maszyna nie potrafi zrobić. A jak takie technologie się pojawiły to po chwili ludzie do tego przywykli i przestali mówić, że to jest sztuczna inteligencja. To jest pewnie powiązane z tym, że przestawali myśleć, że te zadania, które udało się rozwiązać faktycznie wymagają inteligencji.

Arek Cempura:Czyli to jest tak, że nabywamy doświadczenia i postrzegania świata, to w ten sposób następuje ewolucja tej definicji? Ona się wtedy rozszerza?

Arek Flinik:Wydaje mi się, że taka definicja może być zachowana, która mówi, że chodzi o jakąś próbę odtworzenia różnych procesów, które nazywamy inteligencją, tylko ta definicja nawet jeśli nie będzie się sama w sobie zmieniać, to będzie dla ludzi znaczyła co innego przez to, że słowo inteligencja będzie zmieniało swoje znaczenie.

Arek Cempura:Czyli patrząc na definicję SJP, że są to programy lub systemy komputerowe symulujące ludzkie myślenie, wydaje się, że ta definicja jeszcze długo powinna być poprawna, jest na tyle szeroka.

Arek Flinik:Myślę, że mógłbym się zgodzić, natomiast zastanawiam się nad inną rzeczą. Mówimy o symulowaniu ludzkiego myślenia, to mówimy o odwzorowaniu procesów w człowieku, kiedy myślimy, czy chodzi o osiągnięcie efektu, który człowiek potrafi osiągnąć przez ten proces. Wydaje mi się, że dokładne odwzorowanie tego, co się dzieje w ludzkim mózgu, czy organizmie nie jest konieczne do tego, żeby mówić o sztucznej inteligencji. Zresztą jeden ze znanych podręczników wprowadzający do sztucznej inteligencji, w szczególności na amerykańskich uczelniach, zapadł mi w pamięć cytatem – gdybyśmy próbowali stworzyć sztucznego ptaka i sztuczne skrzydła, to nigdy nie zrobilibyśmy samolotu i potrafili latać. Było to możliwe dopiero, gdy skupiliśmy się na rozwiązaniu problemu i wymagało to zrozumienia wielu rzeczy i rozwiązania wielu problemów technologicznych, inżynieryjnych.

Arek Cempura:To jest ciekawe, co mówisz. Ostatnio trafiłem na post, w którym Paweł Tkaczyk mówi o tym, że ludzie stali się doskonali w lataniu niż ptaki. W pierwszej chwili zbuntowałem się co do tego, bo jak moglibyśmy być doskonalsi, ale to, co mówisz – przestaliśmy się skupiać na procesie lotu, nad odwzorowaniem tego, czego i tak nie osiągniemy, ale że lot to jest przemieszczenie się z miejsca do miejsca. Na początku oburzyłem się, że ptaki mają możliwość startu bezpośredniego, lądowania perfekcyjnie w wybranym miejscu, ale to są helikoptery. A to, co robimy z dronami – one zaraz staną się jednoosobowymi pojazdami. Można by było powiedzieć, że to powinny być systemy komputerowe, które nie tyle udają ludzkie myślenie, co w efekcie dają pewne rozwiązania, do których człowiek mógłby dotrzeć innymi drogami, związanymi z możliwościami człowieka.

Arek Flinik:jestem trochę rozdarty, bo w dziedzinie badań nad sztuczną inteligencją są dwa odłamy i część ludzi totalnie chce zignorować  to, co wiemy o mózgu i uważa, że to nie ma sensu i powinniśmy skupić się na rozwiązywaniu jakichś problemów i rozwijaniu tej dziedziny. Z drugiej strony część naukowców, badaczy mówi, że nie będzie to możliwe, dopóki nie zrozumiemy na czym polega inteligencja. I to są ludzie, którzy współpracują z neurobiologami, kognitywistami , filozofami i wychodzą z założenia, że najpierw musimy zrozumieć czym jest inteligencja i później będziemy umieli w jakiś lepszy lub gorszy sposób ją odtworzyć. Trzymając się analogii do latania i samolotów nie wiem, czy byłoby możliwe, żebyśmy wymyślili wszystkie rzeczy, które były potrzebne do tego, żeby skonstruować wszystkie urządzenia, aż do dronów bez zrozumienia co sprawia, że ptaki potrafią latać i oderwać się od ziemi i gdzieś krążyć. Wydaje mi się, że jak zwykle prawda leży gdzieś pomiędzy. Może nie pośrodku, ale na pewno ważne jest pamiętanie i o jednym i o drugim. Powinniśmy cały czas pracować i zrozumieć co się dzieje w naszych mózgach i dlaczego działają tak, jak działają, ale niekoniecznie przywiązywać się do tego 1 do 1 próbując odtworzyć jakieś procesy i technologie.

Arek Cempura:Dzisiaj jakbym był dziennikarzem i podszedł do Ciebie na ulicy i Ciebie zapytał „Panie Arku, czym według Pana dzisiejszej wiedzy jest sztuczna inteligencja?”

Arek Flinik:Powiedziałbym, że jest to cała dziedzina nauki, która próbuje tworzyć rozwiązania i technologie, które potrafią rozwiązywać problemy takie, które wydawałoby się wymagają ludzkiej inteligencji i których nie potrafimy teraz rozwiązywać. Ostatnio słyszałem definicję od dr Oli Przegalińskiej, która powiedziała, że dla niej sztuczna inteligencja jest wielkim światowym projektem, w którego skład wchodzi wiele badań i różnych aktywności, który ma na celu stworzenie w końcu czegoś, co będzie równe lub lepsze od człowieka w myśleniu i w byciu inteligentnym. Wydaje mi się, że to dobrze oddaje taką rzecz, że jest wiele różnych odłamów sztucznej inteligencji i mnóstwo ludzi zajmuje się robotyką i wielu ludzi uważa, że inteligencja nie jest możliwa bez osadzenia jej w jakimś ciele, które ma kontakt z rzeczywistością, potrafi widzieć, czuć, poruszać się i że tylko wtedy możliwe jest bycie inteligentnym. Albo dopiero wtedy możemy mówić o inteligencji. Z drugiej strony sztuczna inteligencja to jest duża działka informatyki i matematyki, która rozwija różne algorytmy uczenia maszynowego, które można by nazwać prostymi matematycznymi modelami, ale też ze szczególnie dużą mocą obliczeniową potrafią rozwiązywać wiele problemów, które niedawno były nie do pomyślenia. Jest też cała działka zajmująca się językiem naturalnym, czyli to, co ja robię na co dzień, czyli próba odtworzenia języka i zdolności konwersacyjnych. Wydaje mi się, że te dwie rzeczy są bardzo odległe, każdy zajmuje się jednym z aspektów tego, co nazywamy sztuczną inteligencją.

Arek Cempura:Czyli mówisz, że z jednej strony są od siebie odległe, ale z drugiej strony elementem, który je łączy jest człowiek. Człowiek, który potrafi myśleć konstruktywnie, abstrakcyjnie, potrafi mówić, komunikować się i się uczyć. Na razie tym elementem jesteśmy my. To, o czym powiedziałeś – że ta sztuczna inteligencja jest podobna do zachowań ludzkich, znalazłem informację w Wikipedii. Termin sztucznej inteligencji przypisuje się Johnowi McCarthy’emu, który stworzył to podobno w 1955 roku i zdefiniował to w następujący sposób: „konstruowanie maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawów inteligencji”. Czyli tak naprawdę w tej definicji jest to, co podkreślasz. Nie mówi, że to ma być idealnie odtworzenie tego, co robi człowiek, ale mamy świadomość, że stworzone jest coś, co potrafi podobnie zachować się jak człowiek, podejmować decyzje, może mieć pewną samodzielność.

Arek Flinik:Można się tak trzymać. Mam pewien drobny problem, ale pewnie nei ma czasu aby wchodzić głębiej w tę dyskusję.

Arek Cempura:Rozumiem, że jak jest drobny, to potrzebuje dużo czasu.

Arek Flinik:Jest taki element wszystkich rozważać, że mówimy o zwierzętach, że przejawiają rożne formy inteligencji czy to chodzi o delfiny, ośmiornice, czy rodzaje małp, które nas co chwile zaskakują inteligentnymi zachowaniami. Myślę, że sztuczna inteligencja niekoniecznie musi przypominać ludzkie objawy inteligencji. Być może będą to jakieś inne, ale tak naprawdę wszystko jednak się sprowadza, że trzeba stwierdzić czy m jest inteligencja, na czym to polega i co właściwie chcemy osiągnąć.

Arek Cempura:Może pewnego dnia dowiemy się, ze delfiny i inne zwierzęta również próbują nas ocenić według swojego poziomu inteligencji i być może dla nich też jesteśmy niezrozumiali i niepojęci.

Z tego, co powiedziałeś sztuczna inteligencja jest żywą definicją, w dużej mierze powołujemy się w pracach nad tym co chcemy stworzyć jednak na doświadczenia człowieka, ponieważ umiemy sobie porównać. Czyli jak my zakładamy z definicji, że człowiek jest istotą inteligentną, to wszystko, co będziemy tworzyli będziemy z definicji porównywali do tego, co może człowiek. Z jednej strony jest to element porównawczy, a z drugiej naszej ograniczenie, bo nie potrafimy się oderwać, bo jest grupa ludzi, która twierdzi, że sztuczna inteligencja powinna się opierać na doświadczeniach człowieka. Nie potrafimy się oderwać i powiedzieć, że sztuczną inteligencję trzeba stworzyć inaczej.

Jak przygotowywaliśmy się do tej rozmowy powiedziałeś jedną fajną rzecz dotyczącą tego, co powiedział pewien pisarz s-f Arthur C. Clarke. Pamiętasz co to było?

Arek Flinik:Tak, jest jeden znany cytat, który lubię przywoływać. On powiedział, ze każda dostatecznie zaawansowana, skomplikowana technologia jest nierozróżnialna od magii i wydaje mi się, że dzisiaj można by to samo powiedzieć, tylko nie o technologii, a o sztucznej inteligencji. Wydaje mi się, że właśnie dzisiaj każda wystarczająco nowa i zaawansowana technologia może być nazywana sztuczną inteligencją i też będzie nieodróżnialna dla innych ludzi od magii. Wydaje mi się, że to powiedzenie jest bardziej na czasie niż kiedyś.

Arek Cempura:Odnieśmy się do magii – nie wiem, czy pamiętasz filmy z Harrym Potterem. Tam wszystkie gazety ruszały się, żyły, jakiś czas temu wydawały się lekką abstrakcją. A jak dzisiaj popatrzysz na wszystkie wydania, które są na tabletach, jeżeli przeglądasz w ten sposób jakąś gazetę, wydawnictwo, to właściwie tam są montowane rzeczy interaktywne. To, co pokazywano w filmie, ze to jest magia, to można powiedzieć, że jest to technologia, której ludzie nie rozumieli wprost.

Arek Flinik:Albo nie była dostępna, bo czasami wystarczy jakieś proste rozwiązanie. Niedawno były święta, można się spotkać z rodziną. Sam byłem zaskoczony, jak bardzo zaskoczona była moja babcia, której pokazywałem na swoim telefonie zdjęcia i tam jest coś, co się nazywa live photos, gdzie jak robię telefonem zdjęcie, to nagrywa się krótki, 2-3 sekundowy filmik, więc jak się przegląda zdjęcia, to są pokazane małe fragmenty ruchu, które dosłownie wyglądają jak sceny z Harry’ego Pottera i dla kogoś, kto tego wcześniej nie widział robi duże wrażenie i też przypomina magię. Ja już przywykłem do tego, rozumiem technologię i wiem, że to jest krótkie nagranie wideo, więc wiem, że to nie jest czymś skomplikowanym. W tym rzecz, że nieważne jak bardzo zaawansowana jest technologia, jak duże wrażenie zrobi na ludziach, którzy nie mieli z tym styczności wcześniej to jest coś zupełnie niezależnego i często jest tak, że dość proste rozwiązania i technologie potrafią zrobić ten efekt wow i wtedy można łatwiej sprzedawać rozwiązania jako sztuczna inteligencja. Jest pewnie też dużo rzeczy, które są trudniejsze do zrobienia, bardziej wyrafinowane, a jednak ludziom się wydaje, że jest to bardzo oczywisty problem i nie przyszłoby im do głowy, żeby nazywać to sztuczną inteligencją.

Arek Cempura:Ten przypadek z babcią jest dobry, ja go pozwolę sobie użyć w drugiej części naszej rozmowy, gdzie będziemy jeszcze rozmawiali o pewnych rzeczach związanych ze sztuczną inteligencją. Przejdźmy do kolejnego etapu. Zamykając pewną rzecz – ta definicja jest trochę otwarta i niestety każdy z nas będzie musiał na bieżąco ją sprawdzać nim podejmie decyzję, czy ma do czynienia ze sztuczną inteligencją, czy nie.

W trakcie wprowadzania do definicji powiedziałeś o czymś takim, jak samo uczenie się. Ja to rozumiem, że jeżeli porównujemy inteligencję do człowieka, człowiek ma zdolność uczenia się, to zakładamy, że ta inteligencja też będzie miała taką cechę, że będzie w stanie się uczyć. Jak to jest z uczeniem się sztucznej inteligencji?

Arek Flinik:To jest dobra uwaga, wydaje mi się, że część osób definiuje sztuczną inteligencję w ten sposób, że to jest coś, co nie będzie miało z góry wyznaczonego algorytmu i wszystkich różnych czynników, tylko samo będzie potrafiło coś wywnioskować i nauczyć się czegoś, żeby można było mówić o inteligencji. To też nie zawsze jest prawda, bo dzisiaj dużo rzeczy, które nazywamy sztuczną inteligencją wcale nie ma tego aspektu i dlatego nie zawsze korzystne jest tworzenie takiej technologii, która sama się uczy. Chociażby tworzenie bota Twitterowego stworzonego przez badaczy z Microsoftu, który kilka lat temu został uruchomiony bot i nazywał się Tay. To miał być bot, który udaje jakąś fikcyjną nastolatkę i  założenie było takie, że nie dostarczali żadnych danych i nie programowali bota w żaden sposób, tylko zakładali, ze przez interakcję z innymi ludźmi na Twitterze będzie się w stanie coraz więcej uczyć i gromadzić więcej wiedzy na różne kwestia i coraz bardziej będzie gromadzić odpowiedzi na jakieś kwestie i z czasem coraz bardziej będzie sprawiać wrażenie inteligentnego. No i historia się skończyła tak, że po kilkunastu godzinach ten bot musiał być zamknięty i usunięty z Internetu, ponieważ ich marketing dotarł nie w te rejony Internetu, które chcieli i oczywiście jak informacja o czymś takim pojawiła się na forach typu 4chan, to rzesza nastolatków z nie najczystszymi intencjami zaczęła z nim rozmawiać i uczyć go własnej wizji świata, więc ten bot zaczął mówić…

Arek Cempura:To o czym mówisz, to jest przerażające, bo z tego wynika, że tak samo jak człowiek będzie tak samo dobry, wykształcony, jakich ma nauczycieli. Tu jest taki element dotyczący kto go uczył i krąży po Internecie takie powiedzenie przypisywane różnym osobom: „boję się nie tyle sztucznej inteligencji, ile naturalnej głupoty”. To, o czym mówisz to jest taka naturalna głupota człowieka, który mógł użyć dobrze tego narzędzia, ale niestety stwierdził, że doprowadzi do skrajnych, kontrowersyjnych zachować. To jest przerażające w uczeniu się. Mówisz, że Microsoft włączył, to działało, okazało się, że to poszło nie w tę stronę. I co teraz dalej? Sztucznych inteligencji będzie powstawało coraz więcej, mają się uczyć same – kto będzie kontrolował, żeby one uczyły się prawidło.

Arek Flinik:To jest dobre pytanie. To jeszcze może dla słuchaczy, którzy nie znają tej historii to warto powiedzieć co poszło nie tak i dlaczego to było złe, to dopowiem, ze bot został zamknięty przez to, ze zaczął nawoływać do usunięcia z ziemi wszystkich ras innych niż biała i mówił, że holokaust nigdy się nie wydarzył, a za 9/11 stał amerykański rząd i/lub Żydzi itd.

Odpowiadając na Twoje pytanie wydaje mi się, że to jest bardzo złożony problem. To wszystko wynika z tego, że im bardziej idziemy w stronę inteligentnych technologii, tym bardziej nieprzewidywalne jest to, co one robią i tym bardziej żaden człowiek nie jest w stanie pojąć wszystkiego, co tam się wydarzy. W tym momencie wydaje mi się, że w praktycznych biznesowych zastosowaniach raczej nikt nie chce wypuszczać takich programów/algorytmów, które byłyby pozostawiane same sobie i podejmowały samodzielne decyzje, tylko chcieliby zachować kontrole. A na przyszłość jak chcemy mówić o prawdziwej, mocno rozwiniętej sztucznej inteligencji to żeby mieć jakieś poczucie, musielibyśmy odtworzyć rzeczy, których nie potrafimy, czyli stworzyć technologie, która będzie posiadała emocje, myśleć wielowymiarowo, a nie skupiać się na jednym prostym mechanizmie/celu do osiągnięcia. Niektórzy mówią o tym, że trzeba wypracować jakiś wspólny system wartości i tworzyć technologię, która będzie zbieżna do ludzi z tymi wartościami, którymi się posługuje. Do tego droga jest jeszcze daleka i nie wiem, czy w najbliższych latach uda się stworzyć technologie, która działa w ten sposób, w jaki opisuję.

Arek Cempura:No dobra, to nie mamy technologii, mamy sztuczną inteligencję, która musi się nauczyć. Dla mnie to  jest przykład, że sztuczna inteligencja jest pewnym potencjałem, że będzie w stanie rozwiązywać pewne problemy., być może inaczej niż człowiek. To tak jak z człowiekiem – człowiek lata, ponieważ zrozumiał cel, a nie próbował zrozumieć budowę ptaków. I jak to zrobić?

Wydaje mi się, że na początku to ludzie powinni uczyć te maszyny, ale wtedy ciągle co – człowiek będzie siedział przy tej maszynie i weryfikował, czy ona robi dobrze? Jak sobie z tym poradzić? To był przykład takiego trochę nienadzorowanego, puszczonego samopas, niech się uczy. Zobaczymy co z tego będzie. Jak sobie z tym poradzić?

Jak byś w ogóle powiedział o co chodzi z uczeniem maszynowym, bo narastają tu pojęcia, różne szkoły, jest otwocka i falenicka i każda ma swoją definicję czym jest uczenie maszynowe.

Arek Flinik:Uczenie maszynowe to jest cała działka różnych algorytmów, które próbują zamodelować duży zbiór danych, na który nie da się wszystkich możliwych reguł przewidzieć. Faktycznie można wyodrębnić kilka reguł uczenia maszynowego i jedno z nich jest takie nadzorowane. Polega to na tym, że przypomina to przygotowywanie się do egzaminu w szkołach czyli dajemy jakiś zbiór pytań i odpowiedzi, które są prawidłowe, albo możemy dać jakiś zbiór danych, np. dużą bazę treści emaili i powiedzieć które z nich wiemy, że są spamem, a które nie, a potem taki system potrafi się nauczyć analizując całe duże dane i wyciągnąć jakieś wnioski i podejmować samodzielnie reguły, żeby już dla nowych maili w naszej poczcie oceniać czy one były spamem, czy nie są.

Z drugiej strony mamy algorytmy, które nazywamy uczeniem nienadzorowanym i różnica polega na tym, że dajemy jakiś zbiór danych, ale nie mamy żadnych informacji na temat tego czym te dane są, które są dobre które złe albo jak je zaklasyfikować. Wtedy te algorytmy próbują same uporządkować i znaleźć jakieś patterny i czegoś się o nich dowiedzieć.

Arek Cempura:My dajemy im pewien zasób wiedzy, one z niego korzystają, potem my weryfikujemy czy korzystają prawidłowo i potem na podstawie tego on się doucza w oparciu o porównanie, że jeżeli to jest to , to prawdopodobnie mam zrobić takie samo zachowanie jak było poprzednio.

Arek Flinik:I niekoniecznie musimy mówić, że ktoś to musi ręcznie oceniać, czy analizować. Oczywiście to się odbywa w razie czego. przykład takiej technologii: wspominałeś o Netflixie –  Netflix zasłynął tym, że mieli bardzo dobrze opracowane algorytmy rekomendacji treści, czyli każdy użytkownik Netflixa, który wystarczająco dużo rzeczy poklika, poogląda, później będzie widzieć odpowiedzi, które są oparte na jego preferencjach. Tam nie ma człowieka, który będzie siedzieć i  mówić, czy dobrze poleciłeś temu człowiekowi nowy odcinek Black Mirror czy nie, tylko próbują pogrupować, pokratkować dane pochodzące od ich milionów użytkowników i automatycznie wyciągnąć jakieś porównania, że większość ludzi na świecie, którzy lubili Black Mirror będzie zainteresowanych nowym odcinkiem lub serialem z podobnymi tematami. One nie musza wiedzieć o czym te rzeczy są, tylko na zasadzie korelacji, tych danych jest bardzo dużo, te algorytmy potrafią coś rekomendować, podpowiadać użytkownikom. Tak samo działa Amazon, który podpowiada różne produkty na podstawie tego co oglądamy i kupujemy. Niektórzy mówią, że sukces firm takich, jak Amazon wynika z tego, że potrafi skutecznie i trafnie podpowiadać nowe rzeczy, dzięki czemu zwiększali szansę, że ludzie będą więcej kupować, czy oglądać.

Arek Cempura:Fajną rzecz powiedziałeś. W pewien sposób te systemy Netflix, Amazon zbierają dane o zachowaniu bieżącym klientów. Im więcej my będziemy o sobie podawali, tym łatwiej będzie mu go zakwalifikować do jakiejś kategorii. Stąd się to bierze. Jeżeli ja wcześniej oglądałem filmy 3% na Netflixie, czy Black Mirror to automatycznie Netflix na podstawie pewnych doświadczeń i podobnej grupy zaproponuje mi kolejny film, który się pojawi zahaczający o kwestie tematów przyszłości i science-fiction.

Arek Flinik:Tak, tylko wydaje mi się, żeby tworzyliby jakieś kategorie użytkowników, tylko jest to dostosowane do każdego użytkownika, bo każdy człowiek ma dużo różnych preferencji i podejrzewam, że nie tylko oglądasz rzeczy związane z nowymi technologiami science-fiction tylko czasem zdarzy się obejrzeć komedię familijną, z których też nie wszystkie się podobają, tylko jakieś wybrane. Są ludzie, którzy będą co roku oglądać Kevina, a są ludzie, którzy wolą oglądać coś innego.

Arek Cempura:To jest jak z pójściem na pasterkę, więc wcześniej musisz obejrzeć Kevina sam w domu.

Arek Flinik:Wydaje mi się, że tam nie ma takich kategorii. Co prawda jakieś oznaczenia są, bo to też swoją drogą gdzieś wyciekły takie informacje, że Netflix oznacza bardzo granularnymi kategoriami, czy tagami wszystkie treści, które się znajdują, więc można tam znaleźć kategorie typu nieoczywiste komedie romantyczne z czarnym humorem dziejące się latach przedwojennych. I w ten sposób mam opisany każdy film, ale nie używają do tego, żeby stwierdzić czy jesteś tym zainteresowany czy nie, tylko żeby lepiej pogrupować i zrozumieć powiązania, że jeśli ludzie lubią kilka jakichś filmów, to to co jest tą rzeczą, która łączy te filmy i lepiej zrozumieć te patterny i podpowiadać.

Arek Cempura:Podsumowując, wiedza o zwyczajach i naszych upodobaniach przekłada się na lepszą ofertę, a jak przekłada się na lepszą ofertę to jesteśmy w stanie więcej zapłacić, bo czujemy, że ta oferta trafia do nas. Trochę w ten sposób wykorzystanie systemów sztucznej inteligencji do tego prowadzi?

Arek Flinik:Myślę, że tak. Przynajmniej ja w to wierzę. Nie wiem, czy faktycznie tak jest czy ktoś to sprawdził, czy to jest potwierdzone, że taki czynnik pomaga. Osobiście wierze, że tak. Jedną rzecz bym dopowiedział odnośnie Netflixa – fajnie, że wspomniałeś o analizie zachowań. Jest też duża różnica pomiędzy tym, co ludzie robią, a wydaje im się co mówią, robią. W jednej z książek dotyczącej projektowania użytecznych interfejsów użytkownika kiedyś padło takie stwierdzenie, że każdy ankietowany powie, że uprawia sport 5 razy w tygodniu mimo, że nie jest to prawda. Właśnie w Netflixie doszli do takich wniosków w praktyce. Jak zaczynali to wyglądało to dużo bardziej tradycyjnie – tam były zwiastuny filmów, które ludzie mogli oceniać w skali 5 gwiazdek co się podoba, co nie. Oni z tego zrezygnowali, starają się nie pokazywać trailerów, tylko odpalają film od początku. Jak się podoba to będziesz oglądać to końca, a jak nie to wyłączysz, bo się znudzisz. Oni używają tych danych do tego, żeby sprawdzić czy ludzie faktycznie oglądają te rzeczy, jak często wracają do jakichś filmów/seriali, czy zapauzowują i przewijają żeby jakiś fragment zobaczyć jeszcze raz, bo był wyjątkowo ciekawy, czy może przewijają jakąś część, bo były nudne. To, co się tam dzieje jest oparte na behawioralnych danych niż klasyfikowanych przez ludzi oznaczeniach.

Arek Cempura:Ok., zbieranie danych, dostarczanie informacji, których oczekuję albo na których można zarobić, to co byś powiedział o naszym sławnym facebooku – znowu była jakaś nowa edycja, przez moment musiałem się ogarnąć, bo coś zmienili z ich punktu widzenia na lepiej, to się dopiero okaże. To, co mnie irytuje na facebooku to skutecznie pozbawili mnie ustawienia takiego wątku, że ja bym chciał, że w moim newsfeedzie pojawiają się rzeczy najnowsze. Ciągle muszę wchodzi i na nowo to ustawiać, a facebook z uporem maniaka mi to kasuje i ustawia posty w taki sposób, w jaki on uważa. Ktoś tam siedzi za tym, czy to coś działa?

Arek Flinik:Oczywiście nie mam takiej wiedzy, która pewnie jest wiedzą tajemną facebooka, chyba ktoś się nie chwali za bardzo jak to działa, ale z pragmatycznych względów wydaje mi się, że byłoby to wręcz niemożliwe. Jak pomyślimy o tym, że dzisiaj większość osób na facebooku na liczbę znajomych idącą w setki i do tego dorzucimy kolejne setki fanpage które lajkujemy. W tym są jakieś portale newsowe albo jakieś telewizje, które każdy kawałek contentu, który produkują wrzucają na facebooka. Na podstawie tego każdego człowieka, którego ma zalakowanego i z kim się zna, prawdopodobnie w każdej godzinie powstają tysiące postów, które facebook mógłby pokazać i trzeba wymyślić coś, żeby pokazać to ludziom w sensowny sposób, bo jeśli ułoży to w sposób alfabetyczny albo chronologiczny content, który mógłby się tam pojawić to to nie byłoby ciekawe, ani angażujące. Coś musza robić, a wydaje mi się, że nie są tam ludzie, którzy będą to analizować, że siedzi tam Pan Arek Cempura, który założył facebooka, więc pokażmy mu posty od jego cioci najpierw, a potem skoro lajkuje Netflixa to pokażmy mu nowy odcinek Black Mirror, który ogląda.

Arek Cempura:Czyli tak naprawdę facebook jest takim urzeczywistnieniem hasła znanego kiedyś z seksmisji, czyli totalna inwigilacja.

Arek Flinik:W pewnym sensie żeby móc coś wybrać, podpowiedzieć. To też ciężko powiedzieć i tutaj stosować podział definicyjny na uczenie nadzorowane i nienadzorowane, bo z jednej strony na pewno nie jest wręcz możliwe, żeby ktoś tworzył ręcznie jakieś zbiory danych na których mógłby się uczyć, a z drugiej strony nie jest to puszczone samopas, bo jednak mają wiele jakichś celów do osiągnięcia. Jakbym miał strzelać, to to znów jest ich chroniona, tajna wiedza, ale można założyć, że z jednej strony próbują podsunąć nam takie treści, które mają nam sprawić, że będziemy się dobrze czuli scrollując tego facebooka i będziemy chcieli spędzać tam więcej czasu, angażować się w dyskusję i lajkować. Z drugiej strony mają dużo reklamodawców i dostawców contentu, o których też muszą zabrać. Już nawet nie mówię o wszystkich firmach, które płacą za sponsorowany content, za który muszą płacić żeby się komuś pojawił, ale nawet jak nie płacą to jakoś muszą go pokazywać ludziom, żeby te fanpage ciągle chciały wrzucać , bo gdyby nikt nie widział, to te strony przestałyby to robić i wtedy facebook traci potencjalnych klientów. Pewnie dużo więcej jest tych czynników, o których nie mamy pojęcia, więc pewnie też pod spodem stoją tam algorytmy, które próbują optymalizować to wszystko pod kątem wielu czynników. Można tu zobaczyć i przeczytać rożne historie. Nawet gdyby to było możliwe, facebook akurat sobie nie radzi z moderowaniem i pilnowaniem tego contentu, bo gdyby robili to nie mielibyśmy wielu problemów, które się pojawiły. Chociażby to, że Brexit stal się prawdą, że Trump został wybrany na prezydenta Stanów Zjednoczonych i w innych krajach rzeczy które się działy stały się, bo została wykorzystana potęga social media i że było wrzucane dużo treści, które trafiły do ludzi i wypromowały jakiś punkt widzenia na co facebook zawsze się tłumaczy, w szczególności, że dużo tych treści było nieprawdziwych, że oni nie mają mocy przerobowych żeby takich treści kontrolować.

Ostatnio dziennikarze New York Timesa postanowili to sprawdzić, skontrolować i przeprowadzili eksperyment i wykupili sponsorowane reklamy na facebooku, które prowadziły do artykułu, który mówił o samouczku jak usunąć konto na facebooku i dlaczego warto to zrobić. Zapłacili dużo pieniędzy i potem ta reklama krążyła po facebooku.

Arek Cempura:Facebook przyjął te pieniądze?

Arek Flinik:Facebook przyjął te pieniądze, tę reklamę zobaczyło dużo ludzi, mieli dużo wejść na ten artykuł i w pewien sposób jest to trochę dziwne, ale wydaje mi się, że facebook weźmie to za dobrą monetę, bo faktycznie mają dowód na to, że faktycznie nie ogarniają tego wszystkiego, nie są w stanie tego przeglądać/kontrolować, bo gdyby mogli, to by to zatrzymali.

Arek Cempura:Pokazało to ich uczciwość.

Arek Flinik:W pewnym sensie, ale ja nie do końca się z tym zgadzam, bo gdyby im na tym zależało, to wypracowaliby jakieś rozwiązania albo technologiczne albo organizacyjne, które pozwoliłyby lepiej pilnować i powinni to zrobić, ale z różnych powodów, pewnie dlatego że pieniądze inwestorów są najważniejsze, mają inne cele i tego nie robią. Wydaje mi się, że byłaby możliwa jakaś duża zmiana, która pozwoliłaby na to, żeby to kontrolować, chociaż zdaję sobie sprawę, że nie jest to łatwe.

Arek Cempura:Może dlatego, że jak powiedziałeś na początku zajmujesz się rozpoznawaniem języka, którym komunikują się ludzie i to jest element, że jak te systemy będą sztucznej inteligencji to muszą zrozumieć nie tylko odnotować pojedyncze wyrazy i połączyć w danej treści, ale zrozumieć jakie są skutki tej wypowiedzi. Możemy podać sobie jako przykład, że reaguj np. na hasło gołe dzieci. I okazuje się, że facebook może zablokować całkiem ciekawą poezję tylko dlatego, że te wyrazy znalazły się w zdaniu gołe stopy naszych dzieci. Pytanie teraz czy to, co powiedziałeś, ten element jeszcze takiego trochę rozumienia przyczyna skutek. Jeżeli ta sztuczna inteligencja nie tylko będzie wykonywała pewne procesy, ale również będzie w stanie wyczytać naszą intencję z tego, co jest napisane to może wtedy łatwiej będzie blokować te kwestie i newsfeed będzie zablokowany.

Arek Flinik:Pewnie tak, ale nie jest to łatwe zagadnienie i jest to na tyle nieprzewidywalne, że wydaje mi się,  że nawet jeżeli mielibyśmy technologię, która potrafiłaby więcej rozumieć z tekstu, to zastosowanie tego nie będzie w 100% skutecznie i człowiek gdzieś tam będzie potrzebny. Problemów jest dużo więcej, łącznie z tym, że pojawiają się kwestie etyczne. Inna historia dotycząca facebooka jest taka, że jest takie nie do końca fajne zachowanie, które czasami się zdarza, że różni ludzie, którzy wejdą w posiadanie nagich zdjęć swojej partnerki, później się rozstaną i chcą jej zrobić na złość, to później te zdjęcia wrzuca się w Internecie, na facebooku. Później facebook próbował rozwiązać ten problem i obwieścili światu, że mają z jednej strony algorytmy sztucznej inteligencji, które potrafią rozpoznawać takie zdjęcia, weryfikować i porównywać z innymi zdjęciami, żeby stwierdzić, że to nie jest coś, co nie powinno tam się znaleźć. Ale jednak było to na tyle nieskuteczne, że stwierdzili, że najskuteczniejszy sposób, żeby się zabezpieczyć jest taki, że jeśli jesteś taką dziewczyną i masz jakieś zdjęcia, które wpadły w niepowołane ręce i nie chcesz żeby te zdjęcia później się pojawiały gdzieś na facebooku bez Twojej wiedzy to wyślij do nas te zdjęcia i my je dorzucimy do naszej bazy.

Arek Cempura:Wyślij swoje zdjęcia…

Arek Flinik:Jest już problem z zaufaniem, bo ja nie chcę żeby to zdjęcie się gdzieś pokazało, więc wymaga to dużego zaufania, żeby facebookowi wysłać takie zdjęcie, a z drugiej strony szybko spotkali się z takim problemem, że ludzie mogą nadużywać mechanizmu, bo powiedzmy, że zaraz szykują się kolejne wybory prezydenckie, kampania Trumpa zaczyna wrzucać wszystkie zdjęcia Hillary Clinton po to, żeby zablokować ich umieszczenie na facebooku gdziekolwiek. Wiadomo, że to można nadużywać, więc stwierdzili, że muszą mieć zespół wykwalifikowanych ludzi, którzy maja specjalnie skonstruowane umowy, które zabezpieczają przed problemami. I oni mieli oceniać te zdjęcia, czy to jest zasadnie wrzucone, czy to nie jest próba oszustwa. No i z tym się okazało, że ludzie mają jeszcze większy problem, bo nie dość,  że wysyłam swoje nagie zdjęcia do facebooka, to jeszcze jakiś człowiek musi je pooglądać i stwierdzić, czy na pewno są moimi zdjęciami, czy przypadkiem coś tam nie próbuję oszukać.

Arek Cempura:Wyślij jeszcze jedno zdjęcie potwierdzające, że to Ty jesteś na tym zdjęciu, skan dowodu itd.

Podsumowując – na tym etapie, na którym dzisiejsza sztuczna inteligencja jest nam znana, człowiek pełni rolę nauczyciela. Im lepszy będzie nauczyciel, który przygotuje program edukacyjny dla takiej sztucznej inteligencji albo będzie ją prowadził, tym lepiej ta sztuczna inteligencja będzie wykonywała zadania, której od niej oczekujemy, albo być może te zadania, których jeszcze nie oczekujemy, bo może się okazać, że ona zrobi znacznie więcej. Czyli intencja, która stoi dzisiaj przed wszystkimi, którzy tworzą sztuczną inteligencję jest dosyć istotna. Ona powinna być jednak dobrą intencją.

Arku, słuchając jakiegoś podcastu spotkałem się z pojęciem słaba i silna sztuczna inteligencja. Na początku nie ukrywam, zacząłem się śmiać. Potem zacząłem się wsłuchiwać, a potem zacząłem szukać w Internecie – oczywiście Internet może mi pokazać to, co będzie chciał mi pokazać, ale faktycznie pojawiło się coś takiego jak słaba i silna sztuczna inteligencja. Mnie to zaskoczyło, bo nie ukrywam, nie siedzę w tym na co dzień, jestem pasjonatem. Skąd takie rozróżnienie? Mógłbyś nam pokazać przykłady słabej i silnej inteligencji?

Arek Flinik:Faktycznie jest taki podział na mocną i słabą sztuczną inteligencję i wydaje mi się, że on się pojawił w rozważaniach Johna Searle’a, który wymyślił eksperyment myślowy, który nazywa się chińskim pokojem. Polega to na tym, że można sobie wyobrazić, że jesteśmy w jakimś pokoju odcięci od świata i ludzie mogą się z nami komunikować z zewnątrz podsuwając pod drzwiami jakieś karteczki, na których są chińskie znaczki i to, co mamy w tym pokoju to jakiś zbiór książek, podręczników, które mogą być wystarczające do tego, żebyśmy zaczęli produkować odpowiedzi, które będą przekonujące dla osoby z zewnątrz, więc jak będziemy tak się uczyć czegoś takiego to po jakimś czasie możemy dojść do wprawy i faktycznie umieć skutecznie symulować to, że potrafimy rozmawiać po chińsku i dla osób z zewnątrz może się zdawać, że znamy chiński. Ale rzecz w tym, że nie mamy pojęcia co się dzieje w tych rozmowach i ciężko powiedzieć, że rozumiemy język chiński i wiedzieli co się kryje za tymi znaczkami. Ten eksperyment daje różnicę, że moglibyśmy stworzyć systemy, które można nazwać sztuczną inteligencją, które potrafią pozorować działanie, które przypomina ludzką inteligencję, ale to jeszcze nie znaczy, że te systemu wiedzą co robią i że tak naprawdę są inteligentne, więc właśnie on stworzył ten podział, że dopóki system nie rozumie i nie ma jakiejś świadomości, to nawet jeśli potrafi bardzo dobrze rozmawiać z człowiekiem w ludzkim języku, czy grać w szachy w taki sposób, że jest nawet lepszy od człowieka, to wtedy mówimy o słabej sztucznej inteligencji. Mocna sztuczna inteligencja to taka, która miałaby więcej świadomości zrozumienia, czyli byłaby osobą, która rozmawia po chińsku znając chiński i wiedzą co się dzieje w rozmowach.

Arek Cempura:W tym momencie mówisz, że ta silna inteligencja nie tylko rozumie samo zdanie jako zdanie, ale również jest w stanie zrozumieć intencje stojące za tym zdaniem albo w ogóle z całej treści rozmowy wyciągnąć wnioski znacznie szersze niż wynikające z prostej wymiany zdań. Tak należy na to spojrzeć?

Arek Flinik:Tak. Wydaje mi się, że jak dzisiaj mówimy o algorytmach, które potrafią rozumieć język i faktycznie na podstawie ciągów słów albo mowy zrozumieć trochę i przyporządkować do tego zdania jakieś intencje, jakie informacje tam się pojawiły, o czym osoba mówi, o czym jest kontekst to i tak ciężko byłoby mi powiedzieć, że ten komputer ma świadomość wszystkich rzeczy. On potrafi stworzyć przypisanie, że takie słowa w takiej kolejności w takich zdaniach prawdopodobnie oznaczają, że zdanie było o pogodzie albo o czymś innym, ale nie ma tak naprawdę pojęcia co to jest ta pogoda i czym ona jest na takiej samej zasadzie jak moglibyśmy robić w tym chińskim pokoju. Po jakimś czasie moglibyśmy zrozumieć, że ciąg takich znaczków widziałem w tamtej książce, która te znaczki posiada, więc będę odpisywać jakimiś losowymi zdaniami z tej książki, która może być podręcznikiem zoologii albo książką kucharską albo czymkolwiek innym, ale możemy nie mieć pojęcia, że jest to książka kucharska albo instrukcja obsługi radioodbiornika mimo, że udało nam się przyporządkować i zrozumieć, że to należy do tamtej dziedziny, bo jest z tamtej książki.

Arek Cempura:Trochę przerażające, bo powiedziałeś, że ta świadomość sztucznej inteligencji sama potem będzie się uczyła, rozwijała, podejmowała decyzje. Przejdźmy sobie do kolejnego wątku rozmowy. Mamy słabą i silną sztuczną inteligencję, te pojęcia są i funkcjonują. Można powiedzieć, że słaba to są proste w odczuciu pewnych ludzi rozwiązania, które realizują pewne rzeczy. To, co powiedziałeś ze swoją babcią, te kwestie nagranych mini wideo to jest element sztucznej inteligencji. Ona stwierdzi wow, to jest coś czego się nie spodziewała. Dla Ciebie jest to coś normalnego, wiesz jak to opisać, wiesz, jak to się tworzy.

Teraz mamy przejść do innej rzeczy. Pojawia się kwestia jasnej i ciemnej strony tej sztucznej inteligencji. Może zacznijmy od tej ciemnej strony, bo Ty w swoim artykule na REO.pl, który pisałeś wspólnie z kolegą „BIG DATA mały człowiek” pisałeś „w odróżnieniu od człowieka algorytmy są zupełnie pozbawione bagażu subiektywności. Nie posiadają emocji ani uprzedzeń związanych z poprzednimi doświadczeniami, rasą, religią, doktrynami politycznymi, płcią lub wiekiem. Na decyzje nie ma wpływu zmęczenie, niedobór snu albo zły posiłek.”. Jeżeli biorąc uwagę, że sztuczna inteligencja jest takim ideałem, który nie potrzebuje snu ani jedzenia ani nie ma odczucia zmęczenia lub pewnych emocjo to wydawałoby się, że jesteśmy w stanie stworzyć coś superfantastycznego. Takie superobiektywne rozwiązania bazujące na sztucznej inteligencji.

Arek Flinik:Tak. Od razu zaznaczę, że nie ja jestem autorem tego cytatu. Przywołałem go po to, żeby przywołać jakiś problem. Dla mnie jednym z problemów/zagrożeń jest to, że ta sztuczna inteligencja nie ma tych emocji i wielu innych rzeczy. Wydaje mi się, że nawet jak mówimy o silnej sztucznej inteligencji, to zawsze jednak człowiek tworząc takie rozwiązania gdzieś musi nakreślić cel do osiągnięcia dla tej sztucznej inteligencji. Od kilku lat widać, że coraz bardziej idziemy w stronę, żeby człowiek nie musiał uczyć na bardzo drobnych przykładach wszystkich detali, żeby ten komputer potrafił coś robić i rozumieć, tylko próbujemy coraz bardziej od tego odchodzić i po prostu wyznaczać jakieś cele. Zresztą wielki sukces firmy Deep Mind polegający na tym, że stworzyli program, który potrafił wygrać w grę Go z człowiekiem to w dużej mierze cały algorytm działał i polegał na tym, że mógł się sam uczyć i nie słuchał się ludzi, dzięki czemu mógł prowokować ruchy w grze, które były zaskakujące dla ludzi i niezrozumiałe. Ale miał postawiony cel, że ma wygrać tę grę na jakichś ustalonych zasadach. Nawet jeżeli mielibyśmy silną inteligencję to zawsze jakiś cel, wskaźnik do optymalizacji będzie się pojawiał i większość problemów i zagrożeń, o których mówimy wynika z tego, że musimy bardzo dobrze się postarać, żeby dobrze wyznaczać te cele i dopóki nie mamy 100% pewności, że one są idealnie zbieżne z tym, czego oczekujemy to nie powinniśmy do końca ufać. Nie będę streszczać całego artykułu, ale wniosek jest taki, że jak bardzo zaawansowanych artykułów algorytmów sztucznej inteligencji byśmy nie mieli to w pewnych kluczowych kwestiach, które mogą dotyczyć życia ludzkiego, zdrowia, edukacji itd. powinniśmy używać wyniku takiego algorytmu jako sugestię, podpowiedź, coś co nam oszczędzi trochę pracy, ale nie jako finalną decyzję, bo później okazuje się, że jednak są jakieś luki w tym rozumowaniu i na to jest wiele różnych przykładów. Część jest dość zabawna, może jednocześnie też przykra, ale nie wydaje się, że jest to jakiś krytyczny problem. Choćby historie z algorytmem Google rozpoznającym to, co jest na zdjęciach, który jakiś czas temu wypuścili mówiąc, że teraz wystarczy, że wrzucasz wszystkie robione przez siebie zdjęcia do systemu, a my będziemy wiedzieć co na tych zdjęciach jest i potem możesz wyszukać zdjęcia swojego kota wpisując „kot”. I wydaje się, że jest super, bo nikt nie musi ręcznie tych zdjęć katalogować, oznaczać, bo sztuczna inteligencja zrobi to za nas sama. No i szybko znalazł się człowiek, który sam też był programistą, który był czarnoskóry. Wrzucił zdjęcia swoje i swoich znajomych i zdjęcia zostały podpisane przez Google’a jako goryle. Jest to dość przykra sytuacja. On się próbował odzywać do Google’a, rozwiązać ten problem i okazało się, ze te algorytmy są na tyle nieprzejrzyste, że na tyle jest ciężko znaleźć i rozwiązać taki problem, że z tego co wiem to do dzisiaj nie jest to jakoś rozwiązane poza tym, że mają jakąś czarną listę słów, której nie powinni używać i po prostu nie używają takich słów jak goryl.

Arek Cempura:A jak wrzucisz zdjęcie goryla to co się pojawi? Stworzenie człekokształtne?

Arek Flinik:Trudno powiedzieć. Wiem, że pierwsze rozwiązanie było takie, że ręcznie nadawali takie blokady, żeby tego w ten sposób nie otagować.

Arek Cempura:Czyli najlepszym rozwiązaniem byłoby skasować obecne rozwiązanie i napisać je na nowo.

Arek Flinik:Prawdopodobnie tak.  Nasuwa mi się jeszcze inna analogia. Nawet gdybyśmy mieli napisać jakieś inne antropomorficzne cechy, nazwać je sztuczną inteligencją, to można powiedzieć, że oni nie nauczyli sztucznej inteligencji, że nie powinna być rasistowska, tylko że powiedzieli jej, że nie wypada tego na głos mówić. A sam problem nie został rozwiązany.

Arek Cempura:W artykule mówicie o tym wprost, że algorytmy i te matematyczne modele nie będą pozbawione uprzedzeń tak długo, jak uprzedzeni będą ich autorzy oraz dane, na których są oparte. To, co podajesz przykład z Googlem ktoś popełnił zamierzony albo niezamierzony błąd i wydaje mu się dowcipne, że jeśli rozpoznajesz takie i takie cechy to podaj, że to jest to i to.

Arek Flinik:Wydaje mi się, że coś takiego nie miało miejsca i dużo częściej problem wynika z uprzedzenia, które mają dane, a nie ludzie, które je tworzą, bo ludzie mogą być przekonani, że tworzą algorytm, który ma miliardy zdjęć i coś tam umie rozpoznawać, że są uczciwi i w dobrej wierze działają. Natomiast te uprzedzenia czy to mówimy o tym bocie microsoftowym, czy o tych zdjęciach, czy o innych rozwiązaniach często się okazuje, że te uprzedzenia gdzieś w tych danych niewidoczne na pierwszy rzut okaz gdzieś się znajdują. Czasami wpadamy w błędne koło, gdzie gdzieś tam w stanach były wprowadzane algorytmy, które miały oceniać potencjalnych przestępców i oceniać jak prawdopodobne było to, że podejrzany faktycznie popełnił jakieś przestępstwo to jednym z argumentów za wprowadzeniem tej technologii było wiadomo, że w stanach rasizm jest mocno zakorzeniony i duzo policjantów ma te uprzedzenia i częściej skazują lub zatrzymują podejrzanych, którzy mają inny niż biały kolor skóry. Ale jak zaczęli tworzyć taki system i go uczyć na danych dostępnych w tym momencie to się okazało, że przez to, że przez dużo czasu były pokazane uprzedzenia w ludzkich zachowaniach to ten algorytm, który uczył się do tego samego popełniał te same decyzje i w żaden sposób nie rozwiązuje problemu.

Arek Cempura:Czyli odwzorował człowieka.

Arek Flinik:Jeszcze wracając do zagrożeń to inna kategoria zagrożeń to jest właśnie bezkrytyczne podejmowanie decyzji. Choćby inny przykład – automatyczny system oceniania skuteczności nauczycieli, który miał w jakiś sposób na dużą skalę oceniać który nauczyciel dobrze sobie radzi w pracy. W stanie Waszyngton była misja, żeby podnieść poziom nauczania i chcieli ewaluować pracę nauczycieli, motywować tych, którzy robią dobrą robotę i zwolnić tych, którzy źle sobie radzą i okazało się, że były pewne luki w tym algorytmie. Okazało się, że pewna nauczycielka, która przez uczniów, rodziców i innych nauczycieli była uznana jako jedna z najlepszych nauczycielek w szkole została wytypowana do zwolnienia przez ten system  i została zwolniona, bo cały system został skonstruowany tak, że człowiek nie maczał w tym palców. Co ciekawe, ona próbowała po pierwsze zrozumieć dlaczego została wskazana na co nie udało jej się dostać odpowiedzi, bo wszyscy mówili, ze to jest skomplikowany system/algorytm, który nikt nie wie jak podejmuje decyzje. A po drugiej nikt nie chciał wziąć odpowiedzialności i zmienić tej decyzji, bo mówili, że nic nie mogą zrobić, bo to nie oni podejmowali decyzję tylko maszyna. I to jest też takie ryzyko, że jeśli będziemy bezkrytycznie ślepo zawierzać takim rozwiązaniom w krytycznych kwestiach jak pozbawienie kogoś pracy czy skierowanie do leczenia, czy do więzienia to wtedy pojawia się pewne ryzyko i wydaje mi się, że tam nie jesteśmy gotowi, żeby zupełnie zautomatyzować wszystkie procesy.

Arek Cempura:To dalej jesteśmy w temacie ciemnej strony sztucznej inteligencji. Trochę to, co mówisz jest przerażające, a z drugiej strony przerażające jest to, że my tę sztuczną inteligencję próbujemy ubrać w postać człowieka. Nie wiem, czy łatwiej nam się z nią oswoić… tak jak Ultron w Avengersach, Terminator, to są postaci, które przypominają człowieka. Mnie jedno przeraziło, co powiedział profesor Hawking: „Superinteligentna sztuczna inteligencja będzie świetnie radzić sobie z osiąganiem celów, ale jeśli te cele nie będę spójne z naszymi to będziemy mieli problem”. Tu przedstawił dosyć ciekawe porównanie. Nawiązując do tego, co powiedziałeś – ona albo uczy się i robi tak jak człowiek, więc wiemy co będzie w stanie zrobić, ale za chwilę może się jednak uczyć po swojemu. I on podał ciekawy przykład „domyślam się, że nie jest Pan kimś, kto nienawidzi mrówek i depcze je w ataku złości kiedy tylko ma okazję. Ale wyobraźmy sobie, że jest Pan odpowiedzialny za zbudowanie hydroelektrowni i w miejscu, które ma być zalane znajduje się kolonia mrówek.”  Cóż, mrówki mają pecha i w związku z tym następuje zalanie, zniszczenie tej kolonii. Jemu chodziło o to, że nie powinniśmy doprowadzić do sytuacji, w której ludzie z punktu widzenia sztucznej inteligencji będą takimi mrówkami. Zresztą parę filmów, chociażby Matrix pokazuj, że sztuczna inteligencja przejmuje życie człowieka i ona decyduje jak będziemy żyli, co będziemy robili.

Arek Flinik:To tutaj żeby mówić o takich rozważaniach, takich zagrożeniach pewnie trzeba by wybiec w przyszłość, bo jest jeszcze jedno pojęcie, o którym można powiedzieć, czyli ogólna sztuczna inteligencja. Taka sztuczna inteligencja, która nie tylko będzie silna i ma świadomość i wie, co robi, ale też jest ogólna w tym sensie, że nie jest stworzona tylko do jednego zastosowania. W tym momencie większość rzeczy, które robimy to są wyspecjalizowane technologie, które potrafią kategoryzować zbiór zdjęć, albo podpowiadać jaki produkt chcemy kupić, zrozumieć co mówimy do mikrofonu w telefonie dyktując tekst albo grać w jakąś grę, ale wszystkie z nich skupiają się na jakimś celu, ale nie mamy jeszcze technologii, która byłaby sztuczną inteligencją, która będzie się nadawała do zrobienia czegokolwiek tak jak człowiek, który może wykonywać dowolne zadania. To jest jeszcze przed nami, żeby stworzyć coś takiego.

Drugie pojęcie, które trzeba przywołać to jest tzw. technologiczna osobliwość i to też jest taki eksperyment myślowy, ale wydaje mi się, że tak naprawdę nie jest wykluczone, że faktycznie tak się stanie, jeżeli weźmiemy pod uwagę prawo Moore’a, że z roku na rok komputery robią się wykładniczo szybsze, pojemniejsze i wydajniejsze, to jeśli wyobrazimy sobie, że jeśli kiedyś uda nam się stworzyć silną sztuczną inteligencję, którą uda się porównać inteligencją do człowieka to tak jak człowiek będzie potrafiła nauczyć się prowadzić badania nad sztuczną inteligencją tak jak my to robimy i będzie potrafiła sama siebie optymalizować, zmieniać. Jak do tego dorzucimy to, że ta prędkość działania komputerów w związku z prawem Moore’a z roku na rok rośnie to w momencie, w którym stworzymy taką sztuczną inteligencję, to pewnie jest to kwestia dni, tygodni, żeby ona się sama się rozwijała, przyspieszała i doszła do momentu, kiedy będzie od nas tysiące razy bardziej inteligentna, przebiegła i co wtedy będzie myśleć o nas, co robić? Ciężko powiedzieć, ale wydaje mi się, że ta analogia Hawkinga jest dość podatna i dość szybko może się okazać, że z perspektywy sztucznej inteligencji będziemy takimi mrówkami, z którymi nie zawsze trzeba się… o, przepraszam za dźwięki, ale właśnie sztuczna inteligencja w postaci odkurzacza w moim mieszkaniu się uruchomiła.

Arek Cempura:To łatwiej teraz wyjść na spacer, bo ona teraz będzie sprzątać.

Arek Flinik:Coś w tym rodzaju. Dla takiej sztucznej inteligencji możemy być takimi mrówkami nawet, jeśli my wiemy, że świadomie nie chcemy tych mrówek deptać i zabijać ale czasami podejmujemy decyzje, gdzie jednak część ludzi ignoruje, że te mrówki gdzieś tam żyją i mamy ważniejsze rzeczy, typu postawienie takiej elektrowni i ta sztuczna inteligencja później może podejmować decyzje, które nie do końca będą dla nas najlepsze.

Arek Cempura:Moglibyśmy inaczej – moglibyśmy nie niszczyć tej kolonii, ale ją przenieść. To też jest kwestia podejścia. Bądźmy dobrej wiary, że sztuczna inteligencja również zacznie w ten sposób dokonywać wyborów „Tam muszę, ale zostawię im zastępcze miejsce”.

Arek Flinik:Jeżeli sztuczna inteligencja będzie tak bardzo inteligentna to będzie miała dużo wyższe standardy etyczne i moralne, że będzie wiedziała, że nie powinna tego robić. Tak samo o ludziach można powiedzieć, że można by, ale wielu by to zignorowało się nie przejmuje. Często się też nie przejmują innymi ludźmi. Jeśli chodzi o tę sztuczną inteligencję, która będzie naprawdę tak potężna to nawet, jeśli część ludzi będzie o tym pamiętać, żeby stworzyć sztuczna inteligencję, która będzie dobra, to całe ryzyko wynika z tego, że jeżeli jedna osoba stworzy sztuczną inteligencję, która nie będzie miała takich oporów przed czymś to tyle może wystarczyć do tego żeby się zastanawiać potem co się stanie z ludzkością.

Arek Cempura:To skoro wspomniałeś już o prawie Moore’a, ono jest prawem empirycznym. Jest na podstawie wszystkich operacji, doświadczeń, które się dzieją w obszarze rozwoju technologii, to przejdę płynnie do innego prawa. Jest taki znany pisarz, fantasta Isaac Asimov i on napisał kiedyś cykl „Roboty”. Roboty rozumiejąc je pod bardziej skomplikowanym pojęciem kogoś, kto ma inteligencję, rodzaj sztucznej inteligencji zdefiniował trzy prawa robotów. Powiedzieliśmy, że chcielibyśmy, żeby sztuczna inteligencja zachowała się tak, a nie inaczej, czyli nie zrobiła krzywdy, to być może warto wybyło, żeby ona miała wgrane, czy na twardo wpisane prawa i one brzmią następująco – po pierwsze człowiek nie może skrzywdzić człowieka, ani poprzez zaniechanie działania dopuścić aby człowiek doznał krzywdy. Drugie mówi, że robot musi być posłuszny rozkazom człowieka, chyba, że stoją w sprzeczności w pierwszym prawem. Czyli w pewien sposób powinien strzec nas przed popełnieniem głupstwa. Prawo trzecie – robot musi chronić sam siebie chyba, że stoi to w sprzeczności z pierwszym lub drugim prawem. Asimov dodał jeszcze nadrzędne prawo, tzw. zerowe, w którym zdefiniował, że robot nie może skrzywdzić ludzkości ani przez zaniechanie działania doprowadzić do uszczerbku dla ludzkości. Trochę to rozszerzył. To co powiedziałem o profesorze Hawkingu i teraz te prawa Asimova są wejściem do czegoś takiego jak 23 zasady ochrony przed złą sztuczną inteligencją. Była taka grupa robocza w ramach której był Hawking, w ramach której był również Elon Musk. Oni kiedyś usiedli i w ramach doświadczeń rozszerzyli te prawa Asimova, czyli w tym momencie powiedzieli bardziej szczegółowo w jaki sposób powinno się pracować nad sztuczną inteligencją, w jaki sposób powinno się rozwijać żeby nie było to ze szkodą dla człowieka. Tak naprawdę tym pierwszym prawem 23 zasad zwanymi 23 zasadami z Asimolar, bo tam było miejsce tej konferencji, że pierwszy punkt jest celem badań nad sztuczną inteligencją jest to, żeby stworzyć SI pożyteczną dla człowieka. Tak naprawdę pozostałe rzeczy będą dostępne na podcaście, ale chciałbym z tego punktu przejść do części pozytywnej. Arku, jaka jest jasna strona sztucznej inteligencji? Skupiliśmy się przed momentem na negatywnych skutkach natomiast ja bym chciał znaleźć światło w tunelu i niekoniecznie światło nadjeżdżającej lokomotywy.

Arek Flinik:Wydaje mi się, że już dzisiaj widzimy wiele pożytku. Przede wszystkim sztuczna inteligencja już w określonych zadaniach, jak ją dobrze wyuczymy to może wyręczać nas od robienia wielu rzeczy, które mogli robić ludzie, dzięki czemu trochę zwalnia nasz czas do tego, żebyśmy robili…

Arek Cempura:Wyprodukuje nam mięso.

Arek Flinik:Nie wiem czy akurat do tego sztuczna inteligencja jest w to zaangażowana, ale być może gdybyśmy potrafili stworzyć algorytmy, które same będą kombinowały, testowały dużo różnych kombinacji tak, żeby nam stworzyć cos takiego to już jest niewykluczone. Wydaje mi się, że dużo takich rzeczy w tym momencie, nawet zapomnieliśmy o tym, że są czymś nieoczywistym, że czegoś nie było, a ich używamy. Na przykład dużo osób chcących się gdzieś wybrać posługuje się Google maps i wychodzi z założenia, że to jest naturalne, że wpisujemy jakiś konkretny adres sklepu, który jest w drugiej części Europy i dostaniemy całą trasę, która weźmie też pod uwagę korki. Nawet jeżeli jedziemy z Polski do Francji, to te algorytmy będą brały pod uwagę, że są korki na autostradzie w Niemczech.

Arek Cempura:To jest ten fajny przykład, że ona interaktywnie zbiera informacje od innych kierowców, bo ona sama może jeszcze nie wiedzieć, że jest remont, ale tak naprawdę na podstawie zachowań kierowców, że zwalniają, stoją dłużej w jednym miejscu jest już pierwsze informacja, że jest utrudnienie na drodze.

Arek Flinik:Wydaje mi się, że ona nie wie, że tam jest remont i nie wie co to jest remont. Po prostu wie, że tamtą trasą akurat w tym momencie nie da się przejechać, bo nikt nią nie jedzie albo jak jedzie, to jedzie dużo wolniej. Wiadomo, że te dane muszą w jakiś sposób pochodzić od ludzi. Ale rzecz w tym, że ilość informacji potrzebna żeby podjąć tę decyzję jest tak ogromna, że żaden człowiek nie potrafiłby tego tak dobrze zrobić. Dzięki temu, że mamy taką technologię, to każdy może tego używać na co dzień i nie myśleć o tym, że pod spodem dzieje się masa obliczeń.

Arek Cempura:Mam do Ciebie pytanie. Powiedziałeś, że jest to ileś systemów bardziej zaawansowanych. Na ile może być prawdziwa teza, że dwie osoby jechały z tych samych miejscowości z jednej A do B chciały się dostać w tym samym czasie i każdej z nich zaproponował inną drogę. Czy to możliwe, że w tym samym czasie dwie osoby wyjeżdżały, a mapy proponowały inne drogi?

Arek Flinik:Myślę, że jak najbardziej. Z jednej strony wiadomo, że w tym momencie danych jest na tyle dużo, że prawdopodobnie musimy mówić o systemie rozproszonym, gdzie te dane są rozsiane po wielu maszynach, które niezależnie od siebie robią obliczenia. I nie robią też tego idealnie. I tak wszyscy się cieszą, że robią to lepiej niż ludzie i dają zadowalające wyniki. A co do jakichś detali – być może są dwie maszyny, z których jedna nie ma aktualnych danych, które nie spłynęły, więc może być na przykład pół godziny do tyłu i podjąć jakąś inną decyzję.

Arek Cempura:Czyli jesteśmy połączeni do serwera, który jeszcze nie jest zaktualizowany.

Arek Flinik:Tych danych i komputerów jest tak dużo , że one muszą jakoś tam się ze sobą synchronizować, wymieniać informacjami, ale to wszystko dzieje się z jakimś opóźnieniem, ma jakąś bezwładność, więc z tego może wynikać taka różnica. Ale z tego jest taki argument, że to jest dobre, bo gdyby wszyscy w tym samym czasie zaczęli używać tego…. Wydaje mi się, że w którymś dużym mieście taki problem wystąpił w praktyce. Zostało zamontowane dużo czujników, gdzie są korki i były tablice, które kierowały do jakiegoś miejsca, że w tym momencie lepiej jechać taką trasą, a nie inną, bo na te dwie są korki. No i jeśli wszyscy kierowcy przejeżdżają tą samą drogą, widzą tę tablicę i wszyscy podejmują  decyzję, że będą jechać tamtą drogą, to po chwili tamta droga się zakorkuje, a druga się zwolni. Więc nawet pewnie lepiej jest, żeby ten ruch był rozrzucany losowo i żeby to się jakoś wszystko dynamicznie rozkładało. Bo tak naprawdę dla jednego człowieka ta trasa może być lepsza, ale dla trzech pod rząd może się okazać, ze wcale nie będzie najszybciej. Wydaje mi się, że we Wrocławiu sa takie tablice, które pokazują w którymś miejscu dwie różne trasy dojazdu do…

Arek Cempura:Nie wiem, nie zauważyłem, musze zacząć oglądać. Były kiedyś tablice, które pokazywały ile masz czasu do zielonego światła, ale znikły. Nie znam powodu, ale mówi się nieoficjalnie, że z tego powodu ludzie jeszcze na styk próbowali przemknąć przez skrzyżowanie zakładając, że jeżeli mam jeszcze dwie sekundy, a tamten będzie miał trzy do włączenia czerwonego to zdążę. Nie wiem na ile to jest prawda, pewnie trzeba by było zapytać zarządzających ruchem, bo tak jak powiedziałeś – Google to jest chyba jeden z elementów, a ten pozytywny aspekt to byśmy oczekiwali zarządzenia globalnego ruchem w metropoliach. Takiego, w którym sztuczna inteligencja będzie pomagała na podstawie zbierania różnych informacji zarządzać tym ruchem. To co my wiemy na dzisiaj, to nie da się tak. W poniedziałki jeździ się inaczej, w piątki jeździ się inaczej, bo pewnie w wielu miastach następuje tzw. dzień wyzwolenia miasta, czyli część ludzi wraca do swoich miejscowości, w których mieszkają. Spotkałem się z takim pierwszym pojęciem, kiedy pracowałem na Ukrainie i powiedzieli, że jest dzień wyzwolenia Kijowa, piątek popołudniu, kiedy drogi wyjazdu z Kijowa były obciążone. Natomiast w niedzielę wieczorem były zawalone drogi do Kijowa. Drugi aspekt, który powinien się nakładać – powiedziałeś o geolokalizacji, zbieraniu danych to jest pogoda. Bo to też jest istotne. Wiemy, ze w czasie deszczu i śniegu kierowcy zachowują się inaczej, więc też można by było dostosować te systemy zarządzania ruchem w mieście do tego lub wręcz powodować, żeby zachęcało niektórych, o których wiemy, że mają chęć do skorzystania z komunikacji miejskiej.

Arek Flinik:Tych czynników jest bardzo dużo. Z jednej strony pogoda, z drugiej jakieś naturalne cykle i pewnie jakieś losowe wydarzenia typu maraton, który biegnie przez środek miasta albo otwarcie szkół, albo duża impreza, która się odbywa. W Krakowie można czasami obserwować okolice Centrum kongresowego, które potrafią się zakorkować albo zdarzyło się, że korki się wytworzyły w nieoczekiwany sposób z okazji otwarcia nowej galerii handlowej, gdzie było dużo jakichś promocji.

Arek Cempura:Ok. To mamy elementy dotyczące zarządzania naszym poruszaniem się. Co jeszcze z takich?

Arek Flinik:Jeśli mówimy i jeszcze innych pozytywnych zastosowaniach to na pewno ważne są wszystkie technologie używane w medycynie i tutaj znów pojawia się dużo ryzyk, że nie możemy do końca zaufać, ale jeśli na podstawie różnych wyników, symptomów jakiś algorytm przynajmniej jest w stanie wyrzucać jakieś hipotezy co może pacjentowi dolegać to wydaje mi się, że w tym momencie jest to przydatne jako pomoc dla lekarza, który być może zobaczy tam hipotetyczną diagnozę, na którą sam by nie wpadł i ostatecznie ten doktor może podjąć sam decyzję, a taka technologia może już w tym momencie dużo zrobić i jest już powoli wdrażana i używana na świecie.

Arek Cempura:Medycyna – to chyba jeden z podstawowych działów naszego życia, gdzie to wszystko opiera się na wiedzy, która została zgromadzona. Czyli to, co jest ciekawe np. w serialu dr House to jest ten element szukania przyczyn. Nie leczenia skutków, tylko szukania przyczyn. Analizowania różnych rzeczy na podstawie tego jakie objawy ma pacjent, doszukiwania się i zawężania. Faktycznie to jest fajna rzecz, bo rozwiązania sztucznej inteligencji będą poprzez wyszukiwanie łączyły pewne elementy i będą przedstawiały pewne możliwe zdarzenia. One pokażą na końcu, że prawdopodobnie mogą być te trzy choroby i w tym momencie lekarzowi będzie znacznie łatwiej doprowadzić do tego, żeby tego pacjenta wyleczyć.

Arek Flinik:Przykład z dr House pokazuje, że często jest dużo rzeczy, gdzie skuteczność działania ludzi jest różnoraka i wtedy możemy mówić o takim genialnym lekarzu diagnoście, który potrafi wywnioskować jakieś nieoczywiste rzeczy, rozwiązania i zaproponować diagnozę na którą inni lekarze by nie wpadli. Wydaje mi się, że dzięki sztucznej inteligencji i przeanalizowaniu dużych zbiorów danych i przeszukaniu korelacji możemy taką genialną intuicję dr House w formie technologii dać każdemu lekarzowi, który dzięki temu będzie w stanie lepiej pomagać pacjentom, zrozumieć co im dolega i jakoś im pomagać. Tak samo można myśleć o zastosowaniach poza medycyną jeśli chodzi o prawo, gdzie na całym świecie są prowadzone prace…

Arek Cempura:Prawo, czyli jeden z tych sławniejszych rozwiązań IBM?

Arek Flinik:Jest rozwiązanie IBM, są rozwiązania innych firm, nawet w Polsce na Uniwersytecie Jagiellońskim są prowadzone prace podejmujące ustrukturyzowane i zrozumienie tekstów prawnych.

Arek Cempura:Szczególnie zrozumienia. Podoba mi się.

Arek Flinik:Każdy może wyczytać jakieś kruczki albo zinterpretować co jakiś kawałek prawa mówi i dzięki technologii moglibyśmy być może stworzyć narzędzia dzięki którym taki zwykły Jan Kowalski nie będzie musiał iść do prawnika z prośbą o poradę tylko będzie mógł sam zadać używając swojego języka naturalnego pytanie albo dostać odpowiedź czy coś jest legalne albo co można w danej sytuacji zrobić. Tak można przejść do kolejnej grupy zastosowań sztucznej inteligencji i takiej, którą ja się zajmuję na co dzień, czyli przetwarzanie języka  naturalnego i systemy, które potrafią zrozumieć co mówimy. W ten sposób można przejść do dziedziny przetwarzania języka naturalnego, czyli różnego rodzaju technologie, które potrafią zrozumieć co się znajduje w tekście pisanym, mówionym i wygenerować jakąś odpowiedź albo zrobić jakąś czynność z tym związaną.

Arek Cempura:Ale zrozumieć, żebyśmy wszyscy mieli ten sam poziom wiedzy, to trochę więcej niż wspomnianym przez Ciebie eksperymentem z chińskim pokojem. Czyli nie tylko Ty, że wiesz jakie są znaki, ale że rozumiesz jakie mogą być konsekwencje tego co powiesz, co napiszesz albo możesz przewidzieć krok do przodu, jeżeli ja zapytałem o ostatnią fakturę, to system zapyta mnie czy ją dostarczyć, albo jak zapytałem o obecnego prezydenta Stanów Zjednoczonych, jak zapytam system kto był pierwszy, że pierwszym był George Washington, a nie ktoś inny.

Arek Flinik:W tym momencie wydaje mi się, że technologia pozwala takie rzeczy robić ciągle bez prawdziwego zrozumienia co tam się dzieje i dużo postępu się dzieje w takiej technologii i nie powiedziałbym jeszcze, że tak naprawdę mamy do czynienia ze sztuczną inteligencją, która tak naprawdę rozumie co tam się dzieje, ale na pewno jest to wystarczające, żeby dużo rzeczy usprawnić i zrobić.

Mówiąc o zastosowaniach. Pytałeś o te jasną stronę i co my z tego możemy mieć to wydaje mi się, że jeśli możemy załatwić jakieś sprawy za pomocą takiej technologii rozmawiając w naturalny sposób zamiast dzwonić do Call Center i licząc na to, że to Call Center pracuje i że są osoby, które mogą nam pomóc i do tego nie chcemy czekać w kolejce kilka i kilkanaście minut zanim ktoś nas obsłuży to wydaje mi się, że to jest bardzo korzystne, a jednocześnie wydaje mi się, że większość osób, które pracują na słuchawce w Call Center niekoniecznie jest bardzo zafascynowana taką pracą i pewnie woleliby robić coś ciekawszego. Wydaje mi się, że automatyzacja takich rzeczy też jest czymś, co mogłoby być pożyteczne i pomóc nam, a z drugiej strony mamy coraz więcej rozwiązań typu wirtualny asystent w naszym wirtualnym telefonie, czy głośniku, który możemy postawić w mieszkaniu, które mogą nam pomóc w robieniu wielu rzeczy, choćby zrobieniu jakichś zakupów.

Arek Cempura:To trochę nie jest tak, że jak jest niebezpieczeństwo, że głośnik to są te przykłady, że on jest w ciągłym nasłuchu i to jest taki element szpiegowski? On tak naprawdę może zbierać informacje o czym się u Ciebie w domu mówi, a niekoniecznie reagować na to, co się u Ciebie w domu mówi.

Arek Flinik:Faktycznie jest problem i wydaje mi się, że dużo firm jak Google i Facebook przekonuje, że bez zbierania wszystkich danych i bez dostępu do nich nie jesteśmy w stanie zrobić dobrego rozwiązania, więc po prostu ludzie muszą podjąć tę decyzję i się zdecydować na to, żeby trochę się odsłonić, trochę danych dostarczyć, ale w zamian za to dostają technologię, która będzie im pomagać i robić dużo rzeczy na ich korzyść. Wydaje mi się, że z wielkich graczy tylko Apple próbuje jeszcze walczyć, żeby tworzyć algorytmy, które niekoniecznie muszą zbierać wszystkie dane. Przynajmniej twierdzą, że cenią prywatność naszych danych i starają się rozwijać te algorytmy tak, żeby mogły działać lokalnie na urządzeniu bez konieczności wysyłania wszystkiego do magicznej chmury. Tak często niestety jest, że musimy się zgodzić na jakiś kompromis i chyba każdy może taką decyzję podjąć czy przeszkadza mu to, że ktoś wie, kiedy jakie filmy i seriale ogląda. Czy woli takie dane komuś udostępnić po to, żeby potem mieć lepsze rekomendacje, żeby poznać film, którego by nigdy nie poznał.

Arek Cempura:Z tego, co powiedziałeś buduje mi się takie doświadczenie klienta. Po pierwsze będę mógł dosyć łatwo, pomijając osoby u lekarza, umówić się na wizytę do lekarza. Oczywiście jeszcze bezpieczniej, bo jadąc samochodem, będę mógł głosem ustalić termin wizyty. Następnie przyjdę do lekarza, który dosyć szybko mnie zdiagnozuje, bo będzie wspierany przez sztuczną inteligencję i ona wyeliminuje te rzeczy tam gdzie kłamię, albo gdzie nie wiem, bo sięgnie do zasobów informacji o mnie. W związku z tym będę lepiej leczony. Oczywiście do lekarza dojadę lepiej, bo wszystkie systemy wspomagające pokażą mi najlepszą możliwą drogę, jednocześnie pokazując mi najlepsze miejsce do parkowania, które będzie dostępne w takim i w takim czasie. Na koniec dzięki wsparciu wszystkich inteligentnych asystentów prawnych przygotuję pozew skarżący tego lekarza, bo jednak to leczenie było skomplikowane albo za drogie, bo można to było zrobić prościej. To tak będzie?

Arek Flinik:Nawet można by pójść dalej. Nawet samochód sam Cię dowiezie do tego miejsca. Wsiądziesz, będziesz pić kawę i czytać gazetę, a samochód dowiezie Cię tam, gdzie trzeba. Albo nawet nie będziesz musiał jechać do tego lekarza, bo cały sprzęt diagnostyczny będziesz miał w zegarku, który już dawno powinien wiedzieć co Ci dolega i o co chodzi.

Arek Cempura:Tak, zegarek mnie irytuje szczególnie kiedy mówi mi rusz się. Wracam z treningu albo spaceru, a on mi pokazuje rusz się. Mówi mi że jestem za mało aktywny.

A propos rozwiązań opierających się na sztucznej inteligencji, chociażby diagnostyka, którą możemy mieć dzięki temu, że nasz telefon czy zegarek zbiera ileś danych. Po pierwsze sami badamy, patrzymy na tętno, sami badamy jakość swojego snu, zbieramy informacje o naszej aktywności, czyli ile przeszliśmy kroków, pięter. Tak naprawdę to się staje podręczną bazą informacji o stanie naszego życia. O tym jak żyjemy. To też może być pomocne przy diagnostyce, jeżeli byśmy wyrazili zgodę. Przychodzę do takiego lekarza, on pyta czy wyrażam zgodę, żeby dane a Applewatcha przesłać do niego.

Arek Flinik:No i jak wszędzie możemy mieć negatywne konsekwencje jak na zachodzie, że firmy ubezpieczeniowe zaczęły zbierać różnego rodzaju dane o swoich klientach po to, żeby na podstawie takich danych podwyższyć komuś cenę ubezpieczenia, bo wiedzą z różnych źródeł, np. z facebooka, że palą papierosy albo w jakiś inny sposób prowadzą życie i jest większe ryzyko, że zachorują, więc można podbić cenę. Przedstawiają to, że dzięki temu cena dla zdrowszych klientów będzie niższa i oni w ten sposób promują zdrowy tryb życia.

Arek Cempura:Czyli dzięki temu większość powinna zyskać, że te oferty będą bardziej dopasowane. W Polsce tez mamy takie rozwiązania, chociażby Yanosik współpracuje z jedną z firm ubezpieczeniowych. Tak naprawdę kiedyś używano tego do ostrzegania się przed lotnymi patrolami i nie tylko, a dzisiaj tak naprawdę Yanosik dostarcza informacji o Twoim stylu jazdy. I dzięki temu możesz dostać korzystną polisę.

Arek Flinik:I są też sprzedawane i promowane urządzenia, które można zamontować w samochodzie, które zbierają dane z samochodu i robią dokładnie to samo. Gdzieś tam koniec końców znajduje się ta sztuczna inteligencja, która próbuje na podstawie zebranych skomplikowanych danych, które dla człowieka pewnie byłyby trochę niezrozumiane, albo nie byłoby tez możliwe, żeby przeanalizować każdego kierowcę na podstawie tego wszystkiego. A tak są w stanie stworzyć jakiś profil i przypisać jakąś wartość liczbową do tego człowieka. Czy to dobre, czy nie, ciężko powiedzieć. Na pewno jest dużo ryzyka i dużo może być przykrych konsekwencji, ale są też dobre konsekwencje. Wszystko zależy od tego jak będziemy tego używać, jak zastosujemy i na ile będziemy świadomi tego, co się dzieje i w jaki sposób to jest wykorzystywane. Wydaje mi się, że kluczowa jest tu kwestia transparentności.

Arek Cempura:Kluczowa jest też kwestia intencji, o których powiedziałeś. Jeżeli intencje z góry są dobre, to jest szansa, że całe rozwiązanie będzie dobre. Jeżeli intencje są złe, jeżeli jestem w stanie śledzić każdego i za każde jego zachowanie dawać mu punktów, to budujemy państwo totalitarne, w którym jesteśmy w stanie zarządzać na podstawie lubię Cię, nie lubię Cię. W ramach Black Mirror był jeden z odcinków, taki był wpływ ocen scoringowych, które mogą Ci dać również osoby z Tobą mieszkające, pracujące. One Ci wystawiają opinie – zrobiłeś dobrze, zrobiłeś źle. Źle jesz, źle się uczysz, źle jeździsz samochodem. To tak naprawdę trochę jest tak, że w wyniku rozwiązań sztucznej inteligencji coraz bardziej będziemy monitorowani.

Arek Flinik:Monitorowanie samo w sobie nie jest złe, jak właśnie ocena. Wydaje mi się, że problematyczne jest kilka kwestii. Po pierwsze tych danych jest tak dużo, że ciężko powiedzieć co jest dobre, a co złe. Bo możemy powiedzieć, że ktoś się dobrze zachowuje, ale kto to ustala, kto decyduje i czy ja właściwie wiem co powinienem robić, żeby się dobrze zachowywać w jakiś sposób, a druga kwestia jest taka, że te wszystkie rzeczy idą w taką stronę, żeby później były przyznawane automatycznie. Dzisiaj widzimy w ubezpieczeniach, czy bankowości, gdzie mamy jakiś scoring przydzielony i dostajemy decyzję kredytową, w której mamy zaproponowane jakieś warunki. Ale żeby do końca dojść do tego dlaczego one są takie, a nie inne i żeby odwołać się od tej decyzji, to w tym momencie jest to praktycznie niemożliwe i tutaj wydaje mi się, że jest problem. Za bardzo zawierzamy, że ten system robi, to co ma robić dobrze i nic nie trzeba więcej w tym wszystkim zmieniać. A oczywiście wszystkie technologie zawsze będą miały luki, problemy. Może być coś nieprzewidzianego, jakiś błąd w systemie, że dostaniemy gorszą ocenę. Jeśli później nie możemy dostać kredytu albo idąc dalej, jak wspominasz o Black Mirror, nie dostaniemy się do szkoły, bo gdzieś jakiś system przyznał nam negatywną ocenę na podstawie błędów danych, bo może się okazać, że jest inna osoba o tym samym imieniu i nazwisku, która mieszka w tym samym mieście i której dane przypadkiem zostały zaciągnięte to wtedy może być trochę problematyczne, jeżeli nie możemy pójść i odwołać się na jakiej podstawie ta decyzja jest przyznana i niczego z tym zrobić.

Arek Cempura:Jednak niestety chcąc nie chcąc doszliśmy znowu do tej ciemnej strony wykorzystywania sztucznej inteligencji, o której wcześniej wspominaliśmy. Jakbyś mógł ze swojej strony podsumować. Co może być dobrego i o czym nie powinniśmy zapominać idąc w te wszystkie rozwiązania sztucznej inteligencji, żeby faktycznie nie stworzyć sobie więzienia. To, co powiedziałeś, element oceny. Pewne zachowania są punktowane. To powoduje, że gdzieś zabijamy w sobie tego ja, bo musimy być jak ktoś inny i zaczynamy się wszyscy do siebie upodabniać.

Arek Flinik:Tak naprawdę to jest jakieś narzędzie, które może usprawnić pewne procesy, ale które i tak się dzieją w naszym życiu. Też można popatrzeć, że policjanci, którzy już teraz nam przyznają punkty za to jak jeździmy i te punkty mogą mieć wpływ, że w efekcie możemy prowadzić prawo jazdy.

Arek Cempura:Taki program lojalnościowy.

Arek Flinik:Tam nie ma podejrzewam sztucznej inteligencji, która w tym momencie podejmuje tę decyzję, a i tak są jakieś arbitralne zasady i przyznawane punkty, które wpływają na nasze życie. Te problemy są takie same, tylko sztuczna inteligencja przez to, że potrafi zwielokrotnić i przyspieszyć dużo problemów może zrobić dużo dobrego i pozytywnym aspektem jest to, że takie rzeczy jak diagnoza medyczna czy szukanie trasy na drodze albo wyszukiwanie informacji w Internecie, które nas interesują to jest coś, co dzięki temu może dać nam korzyść, ale jednocześnie też amplifikujemy i potęgujemy wszystkie negatywne rzeczy związane z podejściem. Trzeba mieć świadomość, że to jest tylko narzędzie i jest jakiś sposób na usprawnienie rzeczy i procesów, które w naszym życiu w tym momencie są i warto jest wykorzystywać wszędzie tam, gdzie te rzeczy są pozytywne i dobrze działają już teraz i starać się mieć świadomość, żeby nie popadać w takie złudzenie, że to jest na pewno obiektywne i pozbawione uprzedzeń i nam nie zaszkodzi. Jeśli będziemy tego z głową używać i o tym pamiętać, to jest jeszcze wiele rzeczy, o których nawet nie myślimy, w których sztuczna inteligencja może nam pomóc w życiu i usprawnić to, jak funkcjonujemy na co dzień.

Arek Cempura:Czyli trochę upraszczając, ze sztuczną inteligencją i jej używaniem może być jak z nożem. Nóż jest samym w sobie elementem pozytywnym, pozwala nam coś pokroić, przyciąć, natomiast jeżeli będziemy mieli złe intencje, to staje się narzędziem zbrodni.  Szanowni słuchacze, jeżeli będziemy mieli pozytywne nastawienie do tej sztucznej inteligencji, będziemy mieli w świadomości to, żeby ją wykorzystywać, bo ona ma nam ułatwić życie, to będzie nam łatwiej. Natomiast musimy mieć gdzieś w tyle głowy świadomość, że mogą się pojawiać ludzie, którzy będą mieli trochę inne podejście do zastosowania sztucznej inteligencji. I niestety ich intencje mogą nie być czyste. Na razie cieszmy się z ego, co mamy w zasięgu. Nawet z robienia fajnych zdjęć, nawet z korzystania z różnego rodzaju asystentów. Czekajmy na lepszą diagnostykę medyczną, która pozwoli nam cieszyć się zdrowiem, bo być może jeszcze na etapie urodzin dostaniemy wytyczne jak powinniśmy się odżywiać, zachowywać, żeby dożyć dobrej starości i żebyśmy może też się zapisywali do grona stulatków, ale żyjących w dobrej wierze i korzystających z tych wszystkich rozwiązań. W każdym razie dziękuję Państwu z Wrocławia i dziękuję Arkowi z Krakowa.

Arek Flinik:Ja również dziękuję.

Arek Cempura:I serdecznie zapraszamy na kolejny odcinek Klientomanii, który będzie wkrótce. Myślę, że do tematów z Arkiem wrócimy, bo temat sztucznej żywności mnie zaintrygował i myślę, że tutaj jeszcze gdzieś sami poszukamy informacji i wrócimy do Państwa wkrótce.

Arek Cempura

Arkadiusz R. Cempura – obecnie pracuje w Euro Bank SA, gdzie jest dyrektorem Departamentu Bankowości Codziennej – odpowiedzialnym za ofertę banku dla klienta korzystającego z konta osobistego.

Arek posiada wieloletnie doświadczenie w sprzedaży i marketingu. Zarówno w obszarze B2B, jak i B2C. W latach 2005-2010 pracował dla Lukas Banku (obecnie Credit Agricole Bank Polska), gdzie był Dyrektorem Sprzedaży i Bankowości Elektronicznej.

Od 2014 jest ekspertem w Radzie Programowej Finance Contact Center Forum organizowanym przez Związek Banków Polskich.

Zobacz wszystkie moje wpisy

1 komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Dołącz do społeczności klientomaniaków

Co tydzień będę Ci wysyłał inspirujące porady jak zbudować obsługę, którą pokochają klienci !