Przez minione 20 lat przyzwyczailiśmy się, że telefon jest dla nas (firm i klientów) głównym kanałem kontaktu. To właśnie za pośrednictwem głosu przez dwie dekady załatwialiśmy większość spraw. I choć do głosu dochodzą kanały tekstowe tak jak np. komunikatory czy chat to dominującym medium pozostaje telefon. W jednym z odcinków Klientomanii Michał Szybalski powiedział, że kontakt z żywym człowiekiem będzie luksusem. Wówczas ze sporą rezerwą podchodziłem do jego przewidywań. I mimo, że pojawiało się coraz więcej opracowań na temat robotyzacji i automatyzacji, na horyzoncie nie widziałem nic co by uprawdopodobniało taki scenariusz. Tamta rozmowa miała miejsce zaledwie nieco ponad 3 lata temu. Jeszcze rok temu jako klient sceptycznie patrzyłem na możliwość rozmawiania z robotem. Dzisiaj wiem, że choć to nie łatwe należy zagospodarować ten temat w firmach. Ponieważ nie znalazłem jeszcze w mediach dobrego wytłumaczenia czym są boty głosowe czyli voice boty zaprosiłem do podcastu kogoś, kto można powiedzieć dorastał wraz z nimi i wie o nich wszystko. Zapraszam do wysłuchania mojej rozmowy z Piotrem Kempą.
Posłuchaj podcastu
Pobierz mp3 Transkrypt Youtube
słuchaj na iPhone Słuchaj na Android Słuchaj w Spotify
Rozmawiamy o:
- Czy boty potrafią rozmawiać?
- Kim lub czym są boty konwersacyjne?
- Z czego składają się boty? Jak to się dzieje, że komputer rozmawia z nami?
- W jaki sposób bot (komputer) słyszy rozmówcę
- Czy komputer rozumie to co mówi do niego człowiek?
- Skąd bot wie jakiej odpowiedzi ma udzielić?
- Czy bot myśli?
- Jak wyglądał rozwój technologii botów konwersacyjnych na przestrzeni minionych lat?
- Jak wygląda algorytm prowadzenia dialogu?
- Jak poradzić sobie ze złożonością języka polskiego?
- Co wspólnego mają voiceboty z asystentami głosowymi (Alexa, Google home, Siri)
- Czy pojawienie Google Duplex wpłynęło na zainteresowanie technologami automatyzacji komunikacji
- Czy klienci ufają botom – czy chcą z nimi rozmawiać?
- Czy roboty zabiorą pracę konsultantom call center?
- Czy kontakt z żywym człowiekiem będzie luksusem?
- Czy voiceboty są napędzane sztuczną inteligencją?
- Czy voicebot może udawać człowieka – czy klient może się nie zorientować, że rozmawia z robotem
- Czy klienci są gotowi na voiceboty?
- Gdzie voiceboty sprawdzają się najlepiej, a gdzie lepiej ich unikać?
Przydatne linki
- Walker Matthew – Dlaczego śpimy. Odkrywanie potęgi snu i marzeń sennych
- KLM #51: Wszystko co musisz wiedzieć o chatbotach – rozmowa z Maciejem Stanuschem
- Jak sztuczna inteligencja od Microsoft została rasistą
- primebot. – strona Piotra
- Piotr Kempa na LinkedIn
Skąd pobrać podcast
Podcast dostępny jest dla Ciebie w wielu miejscach (i pracujemy, żeby było ich jeszcze więcej):
- W serwisie Klientomania.pl – lista wszystkich podcastów
- W iTunes – dla użytkowników iPhone’ów i iPad’ów
- W serwisie Stitcher – pobierz aplikację Stitcher dla Androida i innych modeli telefonów
Transkrypt
Cześć, Piotrze. Witam Cię serdecznie w podcaście Klientomania.
Cześć Macieju.
Dzięki jeszcze raz za przyjęcie zaproszenia. Przedstaw się moim słuchaczom, powiedz kim jesteś i czym się zajmujesz.
Nazywam się Piotr Kempa, dziękuję za zaproszenie do Twojego podcastu. Zajmuję się, mówiąc ogólnie, botami głosowymi i ogólnie botami, czyli tym, w jaki sposób jesteśmy w stanie rozmawiać naturalnie z komputerami.
To jest ten powód dla którego Ciebie dzisiaj zaprosiłem. Chciałem porozmawiać o botach głosowych, czym są, kim są i mam nadzieję, że troszkę odczarujemy ten świat czego mogą, a czego nie mogą. Natomiast zanim, to chciałbym Cię zapytać o jedną rzecz, o która pytam każdego naszego gościa, czyli czym ostatnio zachwycił Cię świat?
To jest trudne pytanie wbrew pozorom.
Świat nie potrafi już zachwycać?
Potrafi, tylko trudno podzielić się na szybko czymś. Bardzo mnie zainteresował taki człowiek jak Matthew Walker, który napisał książkę Why we Steep?, czyli Dlaczego śpimy?. On jest profesorem w Berkley na Uniwersytecie i zajmuje się tym dlaczego śpimy i jaki jest wpływ naszego snu na nasze życie i nasze zdrowie. Okazuje się, że jest olbrzymi z czego większość ludzi nie zdaje sobie sprawy. Bardzo mnie to zainteresowało, a jednocześnie zainspirowało do tego, żeby więcej spać.
A masz problem ze spaniem?
Problem taki, że jest dużo rzeczy do zrobienia, ale jak już się położę to zasypiam w 5 sekund więc z zaśnięciem, całe szczęście, nie mam problemu.
A jest jakaś część z tej książki, odkrycie, zdanie, które za Tobą chodzi?
Ogólny przekaz jest prosty – należy spać 7-9 godzin dziennie. Chodzą za mną dwie statystyki, które mogą przytoczyć. Pierwsza bardzo szybka statystyka to jest taka, że przeprowadzone badania ilości zawałów serca zgłaszanych w dniu po zmianie czasu na zimowy bądź letni. Okazuje się, że kiedy śpimy o godzinę krócej to ilość zawałów serca następnego dnia wzrasta o 21%, a kiedy śpimy o godzinę dłużej to dokładnie o 21% maleje. To ciekawa statystyka, taka bardzo symetryczna. Druga statystyka, a w zasadzie pomiar. Są takie komórki, które się nazywają natural killer cells, czyli komórki nk, które mają rolę w organizmie, że zabijają komórki zmutowane, niebezpieczne, rakowe przede wszystkim. Po prostu wyszukują takie komórki i je zabijają. Okazuje się, że pomiar jest taki, że kiedy nawet jedną noc prześpimy tylko 4-5 godzin, to ilość komórek w organizmie spada o 70% do następnego dnia. To może mieć olbrzymi wpływ na zachorowalność na raka.
Trochę przerażające to jest. To może przenieśmy się na coś, na co mimo wszystko możemy mieć wpływ, a na pewno Ty masz wpływ. Od dłuższego czasu dosyć dużo mówi się o automatyzacji komunikacji. Temat generalnie botów, robotów, czatbotów i Voicebotów mam wrażenie, że opanował umysły bardzo bardzo wielu ludzi. Dziesiątki, jeżeli nie setki artykułów, materiałów wideo i chciałbym dzisiaj o tym z Tobą porozmawiać jak z człowiekiem, który stworzył już jakiś czas temu swojego pierwszego voicebota i robi to na co dzień i spotyka się z jednej strony z ciekawością, a z drugiej strony z pewnym brakiem zaufania do tego trendu, rozwiązania technologii itd. Pierwsze pytanie w tym kontekście – jak w ogóle się stało, że zainteresowałeś się właśnie tym tematem?
Zawsze interesowałem się od dziecka komputerami i w jakiś sposób interfejsem pomiędzy człowiekiem, a komputerem, bo to jest takie naturalne coś, czego używamy obcując z komputerami. Natomiast samymi botami zainteresowałem się ze względu na pracę, którą zacząłem pracować w tym sektorze botów. Zacząłem się interesować tym tematem dopiero. To było jakieś 6 lat temu kiedy to zacząłem i od tego czasu już niezmiennie w tym pracuję.
Pamiętam 6 lat temu, to jest 2013 rok. To jest taka rzecz, której chyba w szkołach nie uczą? Myślę, że wtedy na pewno nie uczyli. Skąd czerpałeś wiedzę, skąd dowiadywałeś się czym to jest?
Ja wtedy nie pracowałem zupełnie sam, pracowałem w zespole, także idea była całego zespołu, ale tak naprawdę voicebota składają się z szeregu małych rzeczy, które dopiero połączone w jedną całość tworzą voicebota. No i te niewielkie rzezy są uż zbadane, opisane i po prostu trzeba było rozwiązywać jeden problem na raz. Po prostu to się składa z małych modułów, cegiełek, które można połączyć i stworzyć takiego voicebota.
Pamiętam, to było 2013-14 rok, kiedy w Berlinie Michał Szybalski z Comarchu powiedział, że kontakt z żywym człowiekiem będzie luksusem. Pamiętam, że wtedy patrzyłem na niego jak na wariata i w zasadzie dopiero dzisiaj z perspektywy czasu można powiedzieć, że wtedy mieściło się to w głowach albo wizjonerów, albo właśnie ludzi, którzy zajmują się tematyką IT, którzy się tym interesują. Natomiast z punktu widzenia klienta była to wizja bardziej nadająca się do filmu science-fiction niż do rzeczywistej, codziennej obsługi klienta.
Tak, to na pewno było wizjonerskie powiedzenie Michała.
No dobra. Piotrze, przejdźmy zatem do faktów. Boty to komputery, prawda?
Tak.
Czy boty potrafią rozmawiać tak, jak my to rozumiemy jako ludzie?
Tak jak my teraz rozmawiamy to jeszcze nie. Generalnie rozmawiać potrafią natomiast to też zależy co rozumiemy przez rozmawiać. Na pewno potrafią przeprowadzić rozmowę w jakiś sposób z góry przewidzianą, natomiast trudno byłoby porozmawiać na dowolny temat, zupełnie swobodnie i prowadząc tę rozmowę w nieprzewidzianych kierunkach. Kiedy rozmawiamy z botem, zwykle staramy się przeprowadzić tę rozmowę w kierunkach, które są z góry przewidziane i są założone przez biznes, bo chodzi o to, żeby osiągnąć jakiś cel biznesowy, bo mówimy tu o botach, które wspierają pracę biznesu.
To jeszcze chciałbym doprecyzować, żebyśmy mieli troszkę jak dziecku wytłumaczone. Jak mówimy o botach, w podcaście Klientomania już trochę rozmawialiśmy o botach, rozmawialiśmy z Maciejem Stanuschem na temat chatbotów. Natomiast jak moglibyśmy określić czym według Ciebie są boty, a w szczególności boty głosowe? Ja wyobrażam sobie voicebota jako robota, który coś robi, ma głowę, ramiona, które potrafią coś przenosić, on może do mnie coś powiedzieć. Mam takie wyobrażenie trochę bajkowe. Jak to wygląda z Twojej perspektywy?
Z mojej perspektywy to wygląda tak, że niestety to nie jest taki metalowy robot, który siedzi ze słuchawką przy uchu i z nami r0ozmawia. To jest zestaw programu, które są uruchamiane na serwerze gdzieś, najczęściej na chmurze lub serwerowni danej firmy. Taki bot składa się z kilku różnych programów, modułów. Pierwszym modułem jaki możemy wymienić, jeśli mogę je pokrótce opisać.
Właśnie do tego dążymy, żebyś spróbował nam trochę jak dzieciom wytłumaczyć z czego on się właściwie składa i jak to się dzieje, że ten bot, robot rozmawia z nami.
Zakładamy, że rozmawiamy tutaj o voicebotach, czyli są to boty, które rozmawiają naturalnym głosem. W tym wypadku najczęściej są używane w kanale telefonicznym, czyli rozmawiają przez telefon. Więc pierwszym programem jaki potrzebujemy jest program, który pozwoli nam z komputera pozwolić się z telefonem, czyli taki interfejs do sieci telefonicznej VOiP, czyli takiego Internetowego telefonu. Tu możemy się podłączyć do dowolnej centralki, czy to jest dostawca VOiPa, czy to jest centralka u naszego klienta, co jest bardziej popularnym i sensownym rozwiązaniem. Ten program pozwala nam na zamianę strumienia dźwiękowego, który idzie z telefonu naszego klienta na ciąg bitów, który możemy potem na serwerze przetwarzać. W tym momencie, kiedy mamy ciąg dźwiękowy, wchodzi w grę następny program/moduł, który zamienia ten sygnał audio na tekst. Czyli jest to popularne rozpoznawanie mowy i dzięki temu jesteśmy już w stanie pracować dalej z tekstem. Rozpoznawanie mowy może być bądź to w chmurze, bądź zainstalowane na serwerze. Na to mamy rożne programy, różnych dostawców, natomiast efektem tego, czy innego rozpoznania mowy jest zawsze zamiana tego dźwięku na tekst i z tekstem dalej możemy pracować podobnie jak to robią chatboty. Mamy jakieś algorytmy, interpretacje tego, co człowiek powiedział i tego, co w tekście się znajduje. Staramy się zrozumieć, przetworzyć ten zwykły ciąg tekstu na tzw. znaczenia. Różnie to nazywają, bo nie ma jeszcze standardu, ale nazwijmy to znaczeniami, czyli po prostu jakimiś takimi informacjami dla naszego bota co człowiek miał na myśli, co cciał powiedzieć. Bo może powiedzieć „nie no, jasne, pewnie spoko” a my to rozumiemy, że tak, że mu się podoba, że to jest znaczenie pozytywne, że odpowiedział nam na nasze pytanie pozytywnie. Chodzi o to, żeby te znaczenia w jakiś sposób przewidzieć, zdefiniować i żeby były na tyle inteligentne i szerokie, żeby człowiek mógł wypowiadać się w swobodny sposób i żeby człowiek nie musiał odgadywać tych haseł, tylko żeby mógł jak najswobodniej mówić i żeby bot jak najwięcej rozumiał. I tu jest jakby całe serce systemu. Interpretacja tego, co powiedział człowiek w jak najlepszy sposób da nam jak najlepszego i najwięcej rozumiejącego i najpłynniej rozmawiającego, czyli ergonomicznego bota. No i kiedy zrozumiemy co człowiek powiedział, jesteśmy w stanie przygotować dla tego człowieka odpowiedź, czyli np. zasięgnąć informacji z serwera, z systemu CRM, z systemu obsługi zgłoszeń, z bazy danych, z bardzo wielu różnych miejsc jednocześnie jesteśmy w stanie wyciągnąć informacje, porównać, skompilować to, co człowiek chce się od nas dowiedzieć i wytworzyć w ten sposób automatycznie dla niego tekst odpowiedzi, który jesteśmy mu w stanie przedstawić. No i następnie ten tekst odpowiedzi, który już przygotowaliśmy dla człowieka trafia do kolejnego modułu, który nazywamy syntezą mowy, czyli zamieniamy tekst na dźwięk mowy i wysyłamy ten dźwięk z powrotem do klienta. Oczywiście możemy mieć przygotowane nagrania lektorskie zamiast tej syntezy i w tym momencie są one odtwarzane, natomiast tutaj ograniczeniem takiego rozwiązania jest to, że takie nagrania są z góry przewidziane – oczywiście możemy je sklejać dynamicznie, ale najczęściej jest jakaś z góry przewidziana i zamknięta ilość wypowiedzi lektora. Natomiast kiedy korzystamy z syntezy to możemy sobie tutaj zupełnie dowolną wypowiedź przygotować i wysłać.
No dobrze, ale jeszcze mnie interesują taka sytuacja w momencie kiedy komputer interpretuje to, co mówi klient. Na podstawie czego on to robi? Skąd on wie albo jak wiele jest różnego rodzaju możliwości przekazania tej samej informacji albo związanych z nią emocji, a co za tym idzie znaczeniem, czyli w jaki sposób ta maszyna jest w stanie zrozumieć tę wielość interpretacyjną?
Na tę chwilę , wypowiadając się o technologiach, które ja osobiście znam i stosuję jest to model troszeczkę hybrydowy. Mówię hybrydowy, czyli połączony z dwóch innyc modeli, bo ideałem niedoścignionym moim zdaniem na tę chwilę jest to, żeby wytrenować tak sieć neuronową, żeby ona w zupełnie swobodny sposób© rozmawiała z człowiekiem i nie wymagała żadnego wsparcia. Natomiast wydaje mi się, że z tej technologii, którą w tej chwili dysponujemy wydaje mi się, że nie da się czegoś takiego stworzyć. Natomiast na pewno da się stworzyć model hybrydowy – my, jako ludzie programujący tego bota jesteśmy w stanie nauczyć go tego, co sami rozumiemy, czyli przekazać rozumienie w danej dziedzinie. BO tu tworzymy pod konkretne pytanie, konkretną dziedzinę, konkretną rozmowę. Staramy się przekazać to, co sami rozumiemy, co sami byśmy w tej sytuacji zrozumieli, a do tego dokładamy technologie w mniejszym zakresie, technologie uczenia maszynowego, które powodują, że to, co my rozumiemy troszeczkę rozszerzamy na konkretne pola semantyczne, znaczeniowe. To, że my przewidzieliśmy, że można powiedzieć tak na 7 różnych sposobów, to możemy jeszcze automatycznie przez, nazwijmy to, synonimy, chociaż jest to bardziej skomplikowane, neuronowe, rozszerza to na kolejne 17. Natomiast gdzieś tam musimy przewidzieć to, że człowiek się z nami zgodzi, powie tak albo nie, albo poprosi o połączenie z konsultantem, bo nie chce rozmawiać z botem, albo zapyta kto mówi. Te kierunki główne musimy przewidzieć i ich główne znaczenia. Tutaj dalej możemy wspierać się tą technologią neuronową, żeby to rozszerzyć. No i wiadomo, że dążeniem rynku jest coraz szersze wprowadzanie tych technologii neuronowych, żeby one coraz bardziej nas wspomagały, coraz szerzej pozwalały rozmówcy na wypowiadanie się bardziej swobodne.
Czyli ja rozumiem, że sieci neuronowe pomagają w skuteczności rozumienia, czyli troszkę uzupełniają człowieka, który na początku zaprogramował. Bo jakby punktem wyjścia jest mądrość ludzka, zespołu ludzkiego, który ciałem białkowym definiuje o co może zapytać klient i jak może sformułować te swoje wypowiedzi. Na powiedzmy dziesiątki różnych sytuacji.
To jest takie połączenie sztucznej inteligencji i żywej inteligencji. Jakaś współpraca.
O ile jesteśmy w 2019 roku to ta sprawa wydaje mi się już i zrozumiała, i namacalna, i mamy już pierwsze referencyjne wdrożenia, które pokazują, że to działa. Natomiast chciałbym wrócić do roku 2013-14. Czy jesteś w stanie sobie przypomnieć jak to wtedy wyglądało? Z czym się wtedy zmagaliście? Czy wtedy mówiło się już o sztucznej inteligencji i o jej wpływie, czy raczej jednak to były cały czas ten element czysto ludzki?
Wtedy to był element ludzki. Sieci neuronowe jeszcze wtedy nie wspomagały tej pracy. Tak samo, może tego nie powiedziałem wcześniej, klocki, o których mówiłem jeśli chodzi o rozpoznawanie i syntezę mowy coraz bardziej są zdominowane przez sieci neuronowe. Także nie tylko w kwestii samego rozumienia, ale i przetwarzania mowy na tekst i tekstu na mowę w tej chwili używa się głębokich sieci neuronowych. Deep learning jest stosowany bardzo mocno i to powoduje dużo lepszą jakość. Natomiast wtedy w samych początkach te technologie nie były jeszcze tak rozwinięte. Używało się zupełnie innych silników rozpoznawania syntezy mowy, które nie były oparte na sieci neuronowej, a na starszej technologii. Teraz to zupełnie inaczej wygląda. Jedną z takich głównych rzeczy, z którą się wtedy zmagaliśmy były tzw. gramatyki SRGS. Teraz, kiedy pracujemy z rozpoznawaniem mowy i jest oparta na sieci neuronowej, z tego co człowiek mówi dostajemy tekst tego, co człowiek powiedział. Natomiast kiedyś, kiedy stosowało się systemy gramatykowi nie dostawaliśmy po prostu tekstu co człowiek powiedział, tylko musieliśmy to przewidzieć najpierw i stworzyć model wypowiedzi człowieka, czyli jaki wyraz może człowiek powiedzieć po jakim wyrazie i to za pomocą takiego specjalnego xml-owego zapisu definiować. Było to dosyć skomplikowane i czasochłonne, a jednocześnie dosyć mocno ograniczające. Wtedy naprawdę bardziej musieliśmy myśleć o tym, co człowiek powie tak hasłowo. Rozwój tych technologii pobocznych rozpoznawania i syntezy też automatycznie zwiększa możliwości botów i ich jakość, swobodę rozmowy z nimi. Nie tylko to, nad czym pracujemy sami w zakresie interpretacji tego, co człowiek powiedział, ale też właśnie technologie poboczne znacznie rozwijają technologię botów i dzięki temu wprowadzają je coraz bardziej na rynek.
Chciałbym teraz przenieść naszą uwagę na te narzędzia poboczne. Z jednej strony mamy narzędzie do komunikacji, czyli rozpoznawanie mowy z jednej strony, a potem zamiana tego tekstu na głos, na wypowiedź, która ma przypominać wypowiedź człowieka. Natomiast z drugiej strony mamy informację. Skąd tak na dobrą sprawę bierze się i w jaki sposób to się dzieje, że ta informacja jest właśnie kompilowana, czyli przetwarzana do jakiegoś zbiornika w formie tekstu, informacji. W jaki sposób to się dzieje? Jakie narzędzia są do tego wykorzystywane?
Nie wiem, czy dobrze rozumiem pytanie. Ogólnie przetwarzamy to, co wypowiedział człowiek na zbiór znaczeń. Może to być bardzo prosta wypowiedź i mieć jedno znaczenie, ale może mieć kilka. Następnie tu się pojawia druga komplikacja – zrozumieć to, co człowiek faktycznie miał na myśli. Jeśli to jest jedna interakcja i człowiek powiedział „tak”, to jest prosta sprawa. Natomiast jeśli człowiek powiedział więcej, zawarł kilka informacji, to musimy się zdecydować które z tych informacji są istotne, które chcemy zapamiętać, pokierować odpowiednio dialogiem, zdecydować jaką odpowiedź człowiekowi przygotować. Najczęściej dochodzi do wymiany danych, czyli człowiek udzielił nam odpowiedzi na nasze pytanie, potem zapisujemy tę odpowiedź do bazy CRM klienta, bo klient potwierdził nam spotkanie. Musimy to zapisać, że spotkanie zostało potwierdzone. Albo powiedział, że nie, że jednak nie przyjdzie i musimy zapisać, że nie przyjdzie i spowodować uruchomienie nowego procesu, żeby przełożyć spotkanie na inny termin, żeby przypadkiem nam taki klient nie zaginął.
Czyli są algorytmy, które powodują uruchomienie się poszczególnych procesów.
Tak, to jest cały algorytm prowadzenia dialogu. Jest to taki algorytm, który mówi nam, że jeśli wiemy już to i tamto, a człowiek powiedział nam jeszcze to i to, to wtedy kierujemy rozmowę na takie tory i zadajemy na takie pytania. A jeśli człowiek już nam wcześniej odpowiedział na to, to już potem o to nie dopytujemy, bo już przecież to wiemy, chcemy jeszcze potwierdzić to i tamto itp…
A jeżeli jest rozmowa i w tej rozmowie padł fakt, np. na początku tej rozmowy, to czy robot odpowiada na podstawie ostatnio usłyszanego komunikatu, czy pytania, po kilkuminutowej rozmowie jest w stanie uwzględnić informację, która była przekazana na samym początku rozmowy? Innymi słowy wyobrażam sobie, że tworzy się taki kontener, do którego są wrzucane wszystkie informacje od klienta + informacje dodatkowe z jakichś innych systemów i ten robot ma widok 360 na podstawie tego, co już wiemy jako marka, jako firma o tym kliencie + o tym, co on powiedział w procesie naszej komunikacji, być może jeszcze nawet z maili, które wysyłał do nas. Być może fantazjuję, prośba do Ciebie o usystematyzowane tego.
Tak, bierzemy pod uwagę wszystkie informacje. Jeśli mamy rekord klienta/rozmówcy z CRM to oczywiście uwzględniamy z CRM lub jakiejkolwiek innej bazy wszystko co o nim wiemy. Nie zadajemy mu pytania, jeśli już wiemy jaka jest jego preferencja. Jeśli na początku rozmowy coś usłyszeliśmy, co ma wpływ na późniejszy przebieg tej rozmowy, to oczywiście tez bierzemy to pod uwagę. To jest dość oczywiste, natomiast tu też mocno zależy od procesu. Są takie procesy jak ankieta satysfakcji, którą przeprowadzamy i tam zwykle człowiek odpowiada po prostu na nasze pytania, bo nie wie, jakie będzie pytanie następne. Natomiast są takie procesy jak umawianie wizyty, gdzie człowiek może zadzwonić i powiedzieć od razu wszystko, co chcemy wiedzieć – chce się umówić do takiego lekarza, w takiej placówce, najlepiej wtorek lub środę. Jeśli to usłyszeliśmy, to nie zadajemy tych pytań od nowa, żeby go nie denerwować tylko staramy się zebrać te informacje, pomóc i już dalej prowadzimy rozmowę proponując mu np. termin.
Jeszcze chciałem dopytać o tę pierwszą część, czyli jednak o element rozumienia. Przynajmniej tak, jak ja sobie obserwuję pewne rzeczy, to ojczyzną Voicebotów są mimo wszystko Stany Zjednoczone i językiem, który dominuje jest język angielski, który fleksyjnie jest dużo łatwiejszy niż język polski. Jak radzisz sobie ze złożonością języka polskiego? Ostatnio widziałem fajną grafikę, która pokazywała na ile różnych sposobów można zaprezentować słowo jeść po angielsku i po polsku.
Z racji tego, że od samego początku jestem osadzony w języku polskim jeśli chodzi o boty, nie mam aż takiego porównania. Nie czuję tego ograniczenia. Na pewno gdybym był Amerykaninem, który chce zacząć robić boty po polsku to bym dużo mocniej to odczuł. Natomiast już w samych technologiach, które wybieramy jak rozpoznawanie czy synteza mowy jest to ograniczenie, bo nie wszystkie firmy, które robią rozpoznawanie mowy, robią je po polsku. Już samo to nas ogranicza. Na szczęście są świetne firmy, które robią świetne silniki rozpoznawania mowy i syntezy, które są po polsku i mimo wszystko mamy jeszcze dobry wybór. Natomiast jeśli chodzi o samą interpretację tego tekstu, który człowiek powiedział, to należy tutaj faktycznie troszeczkę luźniej interpretować wypowiedzi słowa, bądź frazy, które człowiek wypowiada. Musimy dać większą swobodę w interpretacji. To też zależy od konkretnego dialogu. Kiedy zadzwoni do nas mężczyzna, powie „powiedziałem”, a kobieta powie „powiedziałam”. My musimy być przygotowani na oba te wyrazy pomimo, że te wyrazy różnią się końcówką. W języku angielskim tego nie ma. Jak najbardziej technologia jest na to gotowa. W tym wypadku możemy powiedzieć, że tu może być „e”, tu „a” albo powiedzieć, że końcówka nas nie interesuje, tylko wyraz do pewnego momentu, a to, czy ten wyraz zakończy się w taki sposób, czy inny to i tak go interpretujemy jako taki sam wyraz. Natomiast w zależności od intencji, od dialogu i od bota może być, że te końcówki mają znaczenie i musimy być gotowi na to, żeby je wychwytywać. Jeżeli ktoś powie „powiedziałem”, a my jeszcze nie jesteśmy pewni płci, to już możemy potwierdzić, że to mężczyzna. Albo jak ktoś powie „kupiłem”, a „chcę kupić”. To są dwa zupełnie inne znaczenia i może to mieć znaczenie czy przekierujemy go do działu sprzedaży czy do działu obsługi posprzedażowej. Nie zawsze możemy powiedzieć, że jeśli chodzi ogólnie o kupowanie to interpretujemy to w ten sposób. Czasami jest to zależne od końcówki, więc tu jest potrzebna elastyczność i dostosowanie do danego procesu.
Pytanie dotyczące rozumienia tego, o czym mówimy. Rozmawiamy już pół godziny, natomiast ilość wypowiedzi, komentarzy jest niemożebna w Internecie. Jak mają się voiceboty do takich produktów jak Alexa, Siri, Google Duplex? Czy to są rozwiązania, które możemy wrzucić do tego samego koszyka, czy to są jednak dwa zupełnie różne obszary?
To są podobne obszary. Zasadnicza różnica jest taka, że na tę chwilę jeśli chodzi np. o Alexę, czy Google, dialogi do tych wirtualnych asystentów są też tworzone przez deweloperów niezależnych, czyli ludzi, którzy tworzą jakieś swoje moduły, swoje kawałki tych dużych asystentów i je tam wczepiają. Dzięki temu pole znaczeniowe, na tematy, na które ci asystenci są w stanie rozmawiać jest szersze, ponieważ jest tworzone przez społeczność. Natomiast sama technologia jest dosyć podobna. Też definiuje się znaczenia, też definiuje się przebieg dialogu, także nie jest to wcale aż tak bardzo oddalone i też tutaj upatruję troszeczkę ułatwienia współpracy rozmówcy z botem, bo kiedy ludzie coraz bardziej oswajają się z tym, że rozmawiają ze swoim telefonem, o coś go proszą, chociaż w Polsce nie jest to aż tak bardzo popularne jak zagranicą, jesteśmy w stanie porozmawiać z komputerem i czegoś się dowiedzieć i nie zawsze jest to frustrująca rozmowa. Potrafi być bardzo fajna i udana.
Jakie jest Twoje zdanie na temat Google Duplex? Czy jego pojawienie się bodajże ponad rok temu było jakąś rewolucją mentalną w zakresie zainteresowania voicebotami?
Myślę, że tak. Google to bardzo duża firma i bardzo duża technologia, ale jest ona mocno zakorzeniona w świadomości ludzi, dzięki czemu ogólnie cały temat zyskuje na świadomości na rynku. Natomiast Google zawsze jest firmą wycelowaną w odbiorcę indywidualnego, czyli raczej dostarcza rozwiązania dla odbiorców posiadaczy telefonów, itd. Rzadko kiedy zajmuje się obsługą małych, średnich biznesów jeśli chodzi o technologie głosowe.
Ja rozumiem, że zarówno Google Duplex, który pokazał pewną technologię, co można zrobic przy pomocy strony internetowej, czy ewentualnie różnego rodzaju interfejsów, tak jak Alexa – to też jest pewne pudełko, które jest interfejsem, które będąc podłączone do Internetu coś może dalej zrobić. Powiedziałeś, że te rozwiązania trafiają pod strzechy, tzn. użytkownicy, konsumenci, klienci, zaczynają coraz chętniej i odważniej korzystać z tych rzeczy. To jest mój podstawowy zarzut pod kątem różnego rodzaju nowych technologii – czy klienci są gotowi na dane rozwiązanie? Nie krytykując tego z buta, tylko patrząc na to: ok., to jest fajne, mi się to podoba, ale czy klienci są w stanie przemóc się? Bo w pierwszym odruchu jest to kwestia przekroczenia strefy komfortu, żeby mówić do telefonu, mając go przed sobą, a nie przy uchu, albo wydając mu dziwne komendy. Mówimy niby o płynnej, normalnej rozmowie. Ale kiedy wiemy, że rozmawiamy do robota, to trochę do niego inaczej rozmawiamy.
Tak, na pewno, zaobserwowałem już niejeden raz, że kiedy człowiek rozmawia z robotem, to troszeczkę się usztywnia i stara się wypowiadać w taki krótki, zwięzły sposób, co tak naprawdę pomaga botowi w przeprowadzeniu rozmowy, dzięki czemu rozmowa idzie płynniej i sprawniej. Chociaż staramy się być przygotowani na skomplikowane rozmowy, ale gdzieś ta komplikacja odpowiedzi, gdzie na proste pytanie tak/nie człowiek nam opowiada całą historię interakcji z daną marką, to gdzieś możemy się w tym zagubić. Natomiast jeśli chodzi o samo rozumienie, to to upraszcza. Ale tez to, że ludzie stykają się z tą technologią sprawia, że coraz bardziej się na nią otwierają. Marki, które to wprowadzają, tak jak ostatnio wdrożenie dużej firmy telekomunikacyjnej nie daje wyboru. Dzwonimy do tej firmy na infolinię, bot nam odbiera połączenie i musimy z nim rozmawiać – nie możemy chcieć lub nie. Czasami człowiek jest na to skazany, chociaż zawsze dobrze jest mu dac opcję porozmawiania z konsultantem. Zwłaszcza, że on tam gdzieś siedzi, istnieje, to warto mu dać furtkę, żeby on nie był skazany.
Mówisz na starcie, w momencie, kiedy ktoś dzwoni, żeby było rozwidlenie „możesz rozmawiać z żywym człowiekiem albo robotem, co wybierasz?”
Robiliśmy takie wdrożenie, gdzie bot odbierał wtedy, kiedy konsultanci byli zajęci. Czyli człowiek dzwonił, słyszał, że konsultanci są zajęci, ale jeśli chcesz to wciśnij 9 i porozmawiasz z botem. I faktycznie klienci wciskali 9. Zwłaszcza było to widoczne w powracających klientach, bo to akurat było umawianie wizyt, więc ludzie dzwonili nie pierwszy raz i kiedy raz przeprowadzili rozmowę z botem, to chętniej do niej wracali, bo wiedzieli, że da się to zrobić, to nie jest takie straszne, wiedzieli, że trzeba powiedzieć do jakiego lekarza i do kiedy. To kwestia tego, że ludzie oswajają się z taką technologią. Myślę, że teraz duże firmy z sektora bankowego prowadzą prace nad takimi systemami botów. Na pewno firmy telekomunikacyjne też. Należy się spodziewać, że w ciągu najbliższego roku tych botów w dużych firmach stanie się więcej na rynku, w związku z czym ludzie będą mieli coraz większa styczność z tymi technologiami, coraz częściej będą rozmawiać z botem i będą nabierać coraz większego zaufania do tej technologii i nie będą się już tak bali i usztywniali. Będą wiedzieli, ze można zadzwonić, porozmawiać, załatwić i mieć z głowy.
Zgadzam się, że zgodnie z zasadą, którą głoszę, że nasze ostatnie doświadczenie jest naszym minimalnym oczekiwaniem, więc jeżeli ktoś doświadczył czegoś naprawdę dobrego, to inne marki będą mu dostarczać nowych możliwości. Patrzę nawet na swoje własne doświadczenia, ale też przekonania, że rok temu byłem raczej sceptykiem botów głosowych. Dzisiaj doświadczyłem kilku bardzo pozytywnych rozmów, nauczyłem się też co mogę, a czego nie mogę. Ewentualnie jeżeli chcę coś ominąć, tego asystenta, to co ja mam zrobić? Może mam ten komfort, że wiem więcej niż przeciętny klient jak to jest zbudowane. Natomiast jako klient ja uczę się tego i jestem w stanie skuteczniej z tego skorzystać. Myślę, że analogicznie jak ludzie kupują sobie Alexę, czy inne tego typu rozwiązania i na początku nie bardzo wiedzą co z tym zrobić i z czasem odkrywają nowe jego możliwości.
Tak, zwłaszcza jeśli mówimy o botach, do których się wraca. Gdy załatwiamy sprawę z firmą, gdzie jest bot, gdy umawiamy kolejną wizytę – wiemy, gdzie jest bot, jak zrobić, żeby to szybko załatwić. Chciałem powiedzieć o jeszcze jednej rzeczy. Wiadomo, że przeprowadzanie takiej rozmowy raz pozytywnie to sprawia, że jesteśmy bardziej otwarci na to później. Ale ważną też rzeczą jest to, że rynek Call Center jest dosyć mocno obciążony i sam jako klient się spotykam, że dzwonimy do jakiejś firmy i czekamy na połączenie z konsultantem 5, 10 minut. Dla takiego człowieka, który dzwoni i czeka, gdyby mógł od razu usłyszeć bota i spróbować chociaż z nim załatwić tę sprawę i gdyby mu się to udało to jest dużym plusem. To, że po prostu dzwoni i załatwia od razu i nie musi czekać na to połączenie co jest zawsze uciążliwe – siedzenie z telefonem przy uchu. Wydaje mi się, że to może być pozytywną zmianą, że możemy zadzwonić w środku nocy, czy w godzinach szczytu, gdzie wszyscy dzwonią i od razu załatwić swoją sprawę po pierwszym sygnale.
O zastosowaniach jeszcze porozmawiamy. Trochę wynotowałem faktów i mitów na temat Voicebotów. Część tych mitów już padło w naszej rozmowie, więc albo po nich się prześlizgniemy, albo ewentualnie rozbudujemy. Chciałbym poznać Twoje zdanie na ten temat. Pierwszym takim bazującym na artykule z 2014 roku, w The Economist, przewidywał zawody, które zostaną wyeliminowane, wręcz nawet znikną w wyniku wdrożenia automatyzacji. Voiceboty są taką automatyzacją czy robotyzacją. Pracownik Call Center był na szczycie tej listy, bodajże drugi. Czy zatem roboty, czy voicebota faktycznie zabiorą człowiekowi, pracownikowi Call Center pracę?
Jeśli chodzi o konkurencję w stosunku do pracownika Call Center wydaje mi się, że to faktycznie powinno być zagrożeniem, natomiast z tego, co rozmawiam z klientami na temat wprowadzania botów do Call Center, jak i technologii wspomagającej Call Center, to jeszcze się nie spotkałem z informacją, że chcemy zwolnić tyle i tyle pracowników i w zamian za to uruchomić boty. Najczęściej spotykam się z taką informacją, że mamy taki ruch i ludzie tak długo czekają na słuchawkach, ze chcemy użyć bota w jednym, czy w drugim procesie tylko po to, żeby po prostu odciążyć tych pracowników Call center. Żeby ten człowiek, który dzwoni nie czekał na słuchawce tylko żeby został szybciej obsłużony przez bota czy pracownika, bo boty uruchamiamy np. w jednym, drugim, trzecim małym procesie, a pracownicy Call Center obsługują pozostałe procesy, które są bardziej skomplikowane. W tym momencie to odciąża pracowników, żeby nie byli tak przeciążeni, żeby nie musieli czekać na połączenie z nim. To jest pierwszy taki przypadek z którym się spotykam. A drugi taki przypadek, to firmy „chcielibyśmy robić więcej ankiet satysfakcji, ale nie mamy tylu ludzi, żeby to obsłużyć, a nie mamy też tyle pieniędzy żeby to zlecić na zewnątrz”. Chcielibyśmy użyć bota do optymalizacji procesu i moglibyśmy taki proces mieć, a tak go nie mamy. Na tę chwilę nie spotkałem się z takimi informacjami od klientów, żeby oni chcieli zastąpić pracowników Call center. Raczej właśnie wspomagać.
Drugi, już o tym mówiliśmy – kontakt z żywym człowiekiem będzie luksusem.
Spotkałem się z tym stwierdzeniem. Na tym etapie może nie tyle luksusem, co będzie ograniczony do konkretnych procesów, takich bardziej rozbudowanych, bądź trudnych, gdzie nie jesteśmy w stanie przewidzieć co człowiek nam powie. Czyli np. proces sprzedażowy, gdzie konsultant usiłuje przekonać naszego rozmówcę, żeby coś kupił, a ten rozmówca nie za bardzo chce i trzeba trochę technikami sprzedaży zadziałać, to dla bota nie byłoby to takie łatwe i właśnie w takich procesach widzę taki bastion, gdzie rozmowa z żywym człowiekiem pozostanie. Natomiast też można sobie wyobrazić jeśli bank oferuje usługi Consierge, które pozwalają na rozmowę z asystentem, człowiekiem, który nam we wszystkim pomoże. TO też nam gdzieś zostanie, jako produkt Premium, chociaż już występuje.
Są banki czy instytucje, które za standard przyjmują obsługę samodzielną, self-service, a voice bot jest takim self-service. Natomiast jeżeli chcesz rozmawiać z żywym człowiekiem, wymagasz od nas większego wysiłku, większego kosztu, bardzo proszę. Zapłać za dodatkową obsługę Premium i w tym momencie możesz rozmawiać z żywym człowiekiem i są w Stanach takie banki, które w taki sposób funkcjonują. Myślę, że w Polsce powolutku też będzie się to działo.
Chociaż jeśli jest tylko taka możliwość, że faktycznie ten konsultant gdzieś tam jest i jest to Call center u danego klienta to staramy się dawać taką możliwość, że jeżeli człowiek sobie nie radzi w danej rozmowie, bot go nie rozumie bądź człowiek prosi o połączenie z żywym człowiekiem, bo wie, że tej sprawy nie załatwi z robotem, albo nie chce. I jeśli jest taka możliwość, to przekierujemy taką rozmowę. To nie jest produkt Premium, tylko raczej rozwiązanie problemu, że człowiek nie chce lub nie może się dogadać z robotem.
Pamiętam, że moje pierwsze doświadczenie z Maxem Orange wiedziałem, że robot sobie z tym nie poradzi. Też założyłem to. I Była to jakaś forma reklamacji, kiedy wypowiedziałem słowo reklamacje, to już max nie próbował ze mną dyskutować, a ma przecież pewien algorytm zaszyty, żeby jednak próbować, tylko od razu przełączył mnie do działu reklamacji i tam sobie już porozmawiałem z żywym człowiekiem. Kolejnym pytaniem, które już tez padło w jakiś sposób, aczkolwiek chciałbym, żeby to wybrzmiało. Voiceboty napędzane są sztuczną inteligencją.
I tak, i nie. Często wyobrażamy sobie, że bot, to jest taka sztuczna inteligencja, która jest taką kopią człowieka i trzeba ją nauczyć rozmawiać o różnych rzeczach i ona wtedy rozmawia. Tak jak mówiłem wcześniej – bardzie jest to kilka takich wspomagających technologii, bądź części składowych, gdzie mają zaszyte technologie uczenia maszynowego, deep learning itp. Natomiast nie jest to jeden wielki twór, który możemy nazwać sztuczną inteligencją. Jest to zestaw programów, algorytmów komputerowych, które w swoich podzespołach mają technologie sztucznych inteligencji, sieci neuronowych. I tak i nie.
Wydaje mi się, że one w tej chwili cały czas muszą być pod bardzo silną kontrolą człowieka. Jest nawet przykład Microsoftu, który mimo wszystko musieli wyłączyć Asystenta głosowego bazującego na sztucznej inteligencji, bo po jednym dniu stał się rasistą.
Tak, bo stworzyli technologię, gdzie bot się sam uczył w rozmowach z ludźmi, a ludzie zaczęli go uczyć niezbyt fajnych rzeczy. Jak powiedziałeś – boty trzeba monitorować i zawsze to robimy. Analizujemy rozmowy, które nie idą najlepiej. Czyli człowiek nie został zrozumiany, rozmowa za długo trwała i tego bota uczymy, żeby następną taka rozmowę przeprowadził bezproblemowo. Rozszerzamy pola znaczeniowe, dodajemy nowe znaczenia, ścieżki w dialogu itd. Natomiast moim zdaniem trzeba to jeszcze robić pod nadzorem człowieka, czyli jeśli dodajemy nowe znaczenia to to musi gdzieś tam w tym brać udział człowiek i popatrzeć na to znaczenie i stwierdzić „tak, owszem to ma sens tutaj, to tak trzeba zrobić to następnym razem rozmowa będzie prowadzona lepiej.” A nie zostawiać tego automatowi, bo może wtedy to być Microsoft.
Kolejny mit – czy dzisiaj voiceboty są już na tyle doskonałe, że mogłyby w jakikolwiek sposób zastąpić człowieka, ale w takim sensie, że człowiek nie odczułby do końca różnicy?
Tak, to się zdarza. Czasami, kiedy właśnie odsłuchujemy rozmowy rzeczywiste widać, że ludzie nie do końca zdają sobie sprawę, że rozmawiają z robotem, chociaż zawsze należy poinformować o tym. Ale ludzie nie zwracają uwagi na to, co się do nich mówi przez słuchawkę i rozmawiają dalej, jakby rozmawiali z człowiekiem i udaje im się przeprowadzić tę rozmowę. Także na pewno jest to możliwe, ale moim zdaniem należy informować, że to jest robot i wtedy możemy nie odczuć tej różnicy natomiast fajnie, jeżeli jesteśmy świadomi, że ona jest.
Właśnie odpowiedziałeś na kolejną kwestę, czyli czy powinniśmy informować, ale czy powinniśmy dawać do zrozumienia. Oczywiście możemy zapowiedzieć to, ale możemy też nadać temu głosowi i tak się robi z tego, co obserwuję, pewnej syntetyczności. Że ten głos nie jest ludzki i wręcz celowo się go troszkę metalizuje, czy bardziej robi się z niego taki głos robota.
Tak, spotkałem się z takimi technologiami i to też jest fajny pomysł, natomiast te technologie syntezy mowy często używane są też doskonalone i brzmią coraz lepiej, coraz naturalniej. Zawsze jestem za tym, żeby informować słownie, że rozmawia z automatycznym asystentem – na pytanie kto mówi, odpowiada, że jesteśmy automatycznym asystentem itd. Często w botach powracamy do tego tematu jeśli nie zrozumiemy człowieka, bo jego wypowiedź była bardzo długa i skomplikowana to możemy powiedzieć „bardzo przepraszamy, ale jestem tylko robotem, czy mógłby Pan/i wypowiedzieć się w trochę prostszy sposób, żebym mógł zrozumieć”. Nawet w trakcie rozmowy możemy człowieka naprowadzić, że rozmowa z automatem i dzięki temu czy mógłbym nam troszeczkę ułatwić tę rozmowę. I to też działa.
Czyli żeby wprowadzić element empatii w stosunku do robota.
To jest też ciekawe zjawisko. Często ludzie rozmawiając z robotami są o wiele bardziej szczerzy, ale tez pewnie empatyczni. Jeśli nie chcę przeprowadzić tego badania satysfakcji to powiem „nie, do widzenia”. Natomiast rozmawiając z człowiekiem jest empatia, że człowiek pracuje w call center, jest biedny i trzeba mu pomóc i przeprowadzić tę rozmowę, chociaż nie chcemy. To troszeczkę inny rodzaj empatii. W stosunku do robotów jej nie ma, ale to zwiększa szczerość.
Czy klienci są gotowi na voice boty? Innymi słowy, czy masz co robić?
Klienci, czyli firmy?
Klienci, mówię o konsumentach, czyli o użytkownikach końcowych. To, o czym rozmawialiśmy wcześniej, czyli czy jesteśmy gotowi, żeby spróbować. Czy to jest na tyle nowe, na tyle inne i dla niektórych niekomfortowe, że jeżeli mieliby do wyboru voicebota albo żywego człowieka to bez wahania wybraliby tego drugiego. Pytanie czy jesteśmy już w takim momencie, że konsumenci nie mają obawy w stosunku do takiego rozwiązania? Bo konsekwencją tego, że tak jest, to konsekwencja będzie widoczna po stronie firm, które będą konsumentom oferować tego typu możliwości.
To się zmienia, to jest jakaś krzywa i my gdzie na niej jesteśmy. Ta świadomość rośnie. Kiedy duża firma wypuszcza swojego bota, to ludzie się z nim stykają chcąc nie chcąc i wtedy bądź nabierają pewności, że da się tego użyć i to jest fajne, bądź widzą, że to jest problematyczne. Ale ta świadomość rośnie i ta gotowość klienta do rozmowy z botem też rośnie i to ciężko udzielić jednoznacznej odpowiedzi, natomiast myślę, że w tej chwili jest jeszcze tak, że gdyby faktycznie człowiekowi wybór rozmowy z człowiekiem tu i teraz nie czekają, a z botem to mogą wybrać człowieka, bo nie są świadomi, że boty wbrew pozorom mogą mieć przewagę, bo bot jak z nami rozmawia może czerpać informacje z różnych baz danych, nie musimy czekać jak w przypadku człowieka, gdzie musi się dowiedzieć, wpisać, pobrać skądś dane. Bot to robi automatycznie w tle kiedy z nami rozmawia i po prostu prowadzi rozmowę płynnie i nie ma czegoś takiego, że trzeba poczekać chwilkę. Albo musimy przekazać człowiekowi numer telefonu – możemy podać potowi szybko i od razu zrozumie. A człowiek potrzebuje po dwie, trzy cyfry mówić na raz, potem poczekać itd. Ta rozmowa z botem może być przeprowadzona szybciej, sprawnie, ale myślę, że świadomość rozmówców na rynku jest niewielka. Te tematy dopiero się pojawiają.
Jest jeszcze za mało przykładów produkcyjnych. Ostatnia paczka moich pytań dotyczy zastosowań. Czyli gdzie voiceboty sprawdzają się najlepiej, a gdzie według Ciebie lepiej nie podchodzić z tym?
Najlepiej się sprawdzają w procesach, które są powtarzalne i dość proste, bo po pierwsze łatwo przygotować taki dialog, a po drugiej szybko i sprawnie można go przeprowadzić, dzięki czemu ludzie nabierają pewności, że rozmowa z botem jest ok. i można z nim porozmawiać, czyli np. umawianie wizyt, przypominanie o zaległej płatności, potwierdzanie wizyt, sprawdzanie statusu zgłoszenia, gdzie człowiek dzwoni i podaje jedną, czy dwie informacje i bot mu wtedy zwrotnie mówi, że zgłoszenie ma taki i taki status, albo kiedy możesz się spodziewać przesyłki. Boty sprawdzają się w miejscach, gdzie człowiek chce się czegoś dowiedzieć w miarę szybko i o dowolnej porze dnia i nocy. Też mamy takie wdrożenia, bo czegoś nie wie i musi wypełnić jakiś formularz zgłoszeniowy, nie zna informacji swojej, bo umowy nie ma w ręce, więc może zadzwonić, zidentyfikować się i się dowiedzieć tych wszystkich danych i to bardzo sprawnie idzie i ludzie bez problemu siebie identyfikują i się wszystkiego dowiadują i są zadowoleni, bo mogą to zrobić o dowolnej porze bez czekania. Takie procesy powtarzalne, czy np. przypominamy Panu o wizycie jutro o tej i o tej porze. Człowiek może tam zadać kilka pytań gdzie tak wizyta itd. i powiedzieć nam, że będzie i w tym momencie jest to o wiele skuteczniejsze od SMSa przypominającego, bo nie wiemy, czy ten człowiek będzie. Tutaj może nam powiedzieć, że będzie lub nie i możemy mu zaproponować nowy termin. Jest taki kanał zwrotny.
Mimo wszystko to jest kanał synchroniczny, a SMS jest asynchroniczny. Klient niekoniecznie musi nam odpisać na tego SMSa
Wiadomo, że daje się takie możliwości, żeby odpisać „tak” ale wiadomo, że nie zawsze ludzie tak robią. A w rozmowie zawsze łatwiej odpowiedzieć niż pisać SMSa jadąc samochodem.
A są sektory gospodarki, gdzie nie mają takie voiceboty zastosowania albo byłyby dużym ryzykiem biznesowym, wizerunkowym?
Proces sprzedażowy, który wymaga stosowania technik przekonywania człowieka żeby on kupił pomimo, że on nie chce. Człowiek bez empatii do robota bez takiego poczucia po prostu nie kupi, będzie szczery. Tutaj to byłoby trudne, natomiast mogę sobie wyobrazić proces sprzedażowy, gdzie człowiek chce kupić, my dzwonimy, żeby mu doradzić co on chce wybrać, to wtedy ok.
Nie dział sprzedaży, a dział zbytu. Klient chce kupić, ewentualnie ma wybór między kolorem zielonym, a niebieskim.
Są różne kolory i mu doradzić jaką chce opcję, dopisać do zamówienia, złożyć itd. Wracając do pytania np. procesy, które są skomplikowane i nie jesteśmy w stanie przewidzieć co człowiek nam powie, bo to jest bardzo ogólny proces, może być ciężko
Piotrze, pięknie dziękuję Ci za rozmowę. Na koniec jeszcze gdyby ktoś chciał nawiązać z Tobą kontakt, gdzie Cię znaleźć, gdzie Cię czytać?
Ja występuję w tej chwili pod nazwą Primebot. Jestem też dostępny na LinkedIn. Zapraszam. Bardzo dziękuję za zaproszenie.
Wszystkie informacje zalinkujemy w notatkach o tego odcinka. Piotrze, jeszcze raz pięknie Ci dziękuję, dziękuję za fajne opowiedzenie czym te boty są od kuchni, tak trochę jak dziecku. Bardzo sobie cenię precyzję układu. Myślę, że nie spotkałem tego typu wytłumaczenia, więc zarówno dla mnie, jak i dla słuchaczy mam nadzieję, że będzie to mega przydatna informacja.
Nie ma sprawy, bardzo dziękuję.
Dziękuję i do zobaczenia, do usłyszenia.
To była kopalnia wiedzy i konkretów na temat Voicebotów. Mam nadzieję, że zarówno dobór pytań, jak i udzielone przez mojego gościa odpowiedzi pomogły Ci usystematyzować wiedzę i przekonania na temat tej formy obsługi klienta. Dołożę do tego jeszcze swoje dwa grosze. Voiceboty cały czas się rozwijają, prawdziwym testem był zeszły rok. To on w dużej mierze weryfikował różne teorie, czy obietnice dawane przez dostawców. Dzisiaj wszyscy jesteśmy mądrzejsi o doświadczenia własne, ale i pierwszych klientów. Myślę, że jest to dobry moment żeby rozpocząć pracę nad tym kanałem komunikacji, bo to nie jest coś, co powstanie w miesiąc. A przynajmniej jako Klientomania przestrzegam Cię przed takimi krótkimi ścieżkami. Jak powiedział Piotr – bota trzeba nauczyć i porządnie przygotować. Tyle, jeśli chodzi o dzisiejszy temat podcastu. Notatki, transkrypt, linki znajdzie pod adresem Klientomania.pl/66, jak 66 odcinek podcastu. A ja zapraszam do zasubskrybowania mojego kanału na YouTube. Tak, postanowiłem zostać gwiazdą YouTube. Nagrywam krótkie, około 15-minutowe formaty, w których opowiadam o konkretnych i mam nadzieję użytecznych zagadnieniach związanych ze światem obsługi klienta. Kolejne odcinki vloga ukazują się co dwa tygodnie na zmianę z podcastem, ale są również publikowane w audio pod kolejnym numerem podcastu Klientomania. Ponieważ YouTube pochłania się inaczej niż podcasty, polecam. Zasubskrybuj mój kanał. Z góry dziękuję. Zapraszam jak zwykle do dyskusji, a jeżeli masz pytania do mnie lub do mojego gościa, wszystkie dane znajdziesz Klientomania.pl. Do usłyszenia w kolejnym odcinku.