Sztuczna inteligencja w polskim biznesie – wywiad z Michałem Jaskólskim, wiceprezesem grupy Morizon-Gratka

Robot interviewing robot. Robot przeprowadza wywiad z robotem.

Kilka dni temu ruszyła polska strona internetowa Czat.ai, gdzie bez abonamentu i bez logowania można wykupić dostęp do czata GPT-4. Rozmowy z czatem zostały na niej od razu sformatowane i możemy rozmawiać m.in z czatem jako ogrodniczką, z informatyczką, z konsultantem biznesowym, astrologiem, wróżką czy dietetyczką a nawet z czatem udającym pieska czy kotka. W takiej rozmowie czat przejawia inicjatywę i od samego początku, nawet jeśli nie umiemy poprawnie zadawać pytań, kopiuje znane mu informacje na konkretne tematy. To może przyspieszyć uzyskanie właściwej, szukanej odpowiedzi. Stronę wymyślił Michał Jaskólski (Morizon.pl i Gratka.pl). Specjalnie do tego powołał nową spółkę, Wondel.ai. Napisałem do niego mejla z pytaniami do krótkiego wywiadu.

– Czym zajmuje się Wondel.ai?

Wondel.ai powołałem do życia jako dedykowaną spółkę dla eksperymentów z AI, które realizuję po godzinach. Pierwszy raz z GPT miałem styczność ponad rok temu, jeszcze za czasów GPT-3.0 i na długo przed pojawieniem się ChatGPT. Celem Wondel.ai jest testowanie konceptów różnych produktów dla szerokiego grona potencjalnych użytkowników.

Bardzo szybko uzyskałem dostęp do GPT-4 i przekonałem się jak ogromna jest różnica w możliwościach tego modelu w porównaniu do GPT-3.5. Okazało się też, że bardzo niewielka grupa osób, nawet z branży technologicznej, jest tego świadoma – i niekoniecznie są gotowe płacić co miesiąc 100 zł abonamentu za ChatGPT Plus z GPT-4. Z kolei nawet te osoby, które z niego korzystały, nie do końca wiedziały jak wykorzystać jego możliwości i nie znały zawiłości promptowania.

Równolegle im dłużej pracowałem z GPT-4, tym bardziej przekonywałem się, że jest pierwszym modelem, który pozwala na realizację znanych z filmów sci-fi wizji o doradcach, asystentach, towarzyszach czy ekspertach, którzy byliby przydatni praktycznie dla każdego i dostępni o każdej porze dnia i nocy. GPT-3.5 mylił się i halucynował zbyt często, by miało to sens.

Non stop pokazują się zresztą artykuły naukowe z różnego rodzaju badaniami porównującymi jakość odpowiedzi zwracanych przez GPT-4 z branżową wiedzą ekspercką.  Dzielę się nimi regularnie na Facebooku (https://www.facebook.com/michal.jaskolski) i Twitterze (https://twitter.com/jaskolski_pl). Często GPT-4 radzi sobie lepiej od ekspertów – nawet w obszarze tak kluczowym jak medycyna.

Wyobraziłem sobie więc jak powinien wyglądać idealny produkt umożliwiający możliwie szerokiemu gronu użytkowników regularny kontakt z AI, świadomie eliminując wszystkie możliwe bariery (od znajomości angielskiego przez konieczność płacenia abonamentu, czy zakładania konta po znajomość promptowania, a nawet klikanie zgody cookies). Tak powstał Czat.ai.

Nie mam jednak obecnie oczywiście możliwości sponsorowania kosztów API z własnej kieszeni w długim terminie, stąd dodanie płatności – na najniższym możliwym poziomie, by obniżyć barierę wejścia.

– Czemu nie zdecydowaliście zbudować modelu częściowo płatnego i częściowo za darmo? Na przykład czatowanie z „piesekiem” albo z „kotkiem” za darmo (GPT-3,5) a porady biznesowe, astrologiczne czy szkolne już płatne?

– Moim celem było utrzymanie wysokiej jakości odpowiedzi, nawet w czatbotach rozrywkowych, nawet kosztem popularności/zasięgu. Gwarantuje to tylko GPT-4. Są oczywiście serwisy, które poszły inną drogą – np. Character.ai, wyceniany na miliard dolarów. Gdy kilka tygodni testowałem postaci stworzone przez jego użytkowników, doświadczenie rozmowy z nimi nie było szczególnie przekonujące. Teraz widzę, że mocno promują wersję płatną, czyli character.ai+ z abonamentem $9.99/miesiąc.

– Ile Was kosztowało postawienie takiej strony ze sformatowanymi czatami? Koszty jakiego rzędu?

Czat.ai wykorzystuje rozwiązania, których koszty zmieniają się wraz ze wzrostem popularności. Najwięcej jak dotąd kosztowały domeny, jednak te prawdopodobnie tak czy inaczej się zwrócą. Z kolei teraz znaczącą część kosztów stanowi oczywiście koszt zapytań do GPT-4.

Model GPT-4 uczestniczył w samym tworzeniu strony, realizując sporą część prac programistycznych. Znacząco przyspieszyło to realizację projektu.

– Wiem, że oprócz zbudowania strony Czat.ai wdraża Pan sztuczną inteligencję generatywną na inne sposoby. Jak? 

– Byłem pomysłodawcą stworzenia wyszukiwania wykorzystującego AI w Morizonie i Gratce. Naszemu zespołowi w kilka tygodni udało się stworzyć rozwiązanie, które na podstawie zapytania tekstowego lub głosowego (na telefonie) w stylu „Będziemy mieć trojaczki i potrzebuję większego mieszkania. Teraz mamy dwupokojowe mieszkanie na Żoliborzu, szukamy czegoś w okolicy Mokotowa” jest w stanie wskazać pasujące ogłoszenia nieruchomości. Można je wypróbować na https://www.morizon.pl/mieszkai i https://gratka.pl/szukai

– Czy widzi Pan jakieś zastosowanie czata GPT-4 w branżach, w których jest Pan aktywny? Czy ma Pan stosowne plany?

Cały czas jestem aktywny w Morizon.pl (nieruchomości), staram się też w miarę możliwości wspierać Lendi.pl (finanse). W obu tych obszarach ciągle szukamy sposobów na wykorzystanie AI w celu łatwiejszego wyszukiwania oraz wygodniejszego sprzedawania nieruchomości, a także wsparcia klienta w procesie starania się o kredyt hipoteczny.

– Jak sztuczna inteligencja przydaje się ona w pośrednictwie nieruchomości? Jakie konkretnie procesy przyspiesza? Co daje firmie a co klienteli? Czy dzięki wprowadzeniu algorytmów mógł Pan redukować zatrudnienie w firmie?

Morizon.pl to nie tyle pośrednictwo nieruchomości, co marketplace z ogłoszeniami nieruchomości, ale oczywiście analizujemy rynek, rozmawiamy z agencjami i testujemy różne narzędzia. Spodziewam się, że praca agenta będzie w dużej mierze skupiać się na kontakcie face-to-face z klientami, a wszystkie inne czynności (na przykład przygotowywanie ogłoszeń, szukanie dopasowanych ofert, itd.) zostaną dość szybko zautomatyzowane. Nie planujemy redukcji zatrudnienia, za to spodziewamy się, że dzięki szerszemu wykorzystaniu AI, będziemy w stanie działać znacznie sprawniej i efektywniej bez konieczności powiększania zespołu.

– Jakie Pan widzi największe przeszkody dla rozwoju branży AI w Polsce? Najczęściej mówi się o braku danych dobrej jakości oraz o kosztach obliczeń.

– Jeśli chodzi o wykorzystywanie gotowych modeli, na pewno jest zamieszanie wokół kwestii prawnych. Niektórzy wklejają poufne dokumenty do ChataGPT – mimo, że mogą być wykorzystywane do trenowania modelu. Inni obawiają się korzystać z API GPT – mimo, że bezpieczeństwo danych jest tu dużo wyższe. Prawdopodobnie dopiero udostępnienie modeli w ramach rozwiązań chmurowych takich jak Microsoft Azure zmieni ten stan rzeczy. Koszty nie stanowią aż takiej bariery.

Jeżeli chodzi o wyższy poziom, czyli tworzenie i trenowanie własnych modeli – to faktycznie, wymaga to ogromnych zasobów obliczeniowych oraz ogromnej ilości danych dobrej jakości. I tu pojawia się temat tak zwanego „narodowego LLM”, który zaczął Kuba Filipowski: https://www.kubafilipowski.com/blog/2023/5/18/yb0moxaembn3ewth7tdehk5jivrcna, inspirując mnie do przygotowania pytania, które Sylwia Czubkowska zadała Samowi Altmanowi. Pytanie dotyczyło tego jak jako kraj możemy zapewnić, by informacje o naszej kulturze, literaturze, sztuce czy geografii były integralną częścią kolejnych modeli LLM, bo tylko tak można będzie zadbać o ich zachowanie. To bardzo ciekawy wątek, który zamierzam niedługo rozwinąć w swoim newsletterze (https://jaskolski.substack.com). Myślę, że aby do tego doprowadzić, nie obejdzie się ani bez rządowego lub unijnego wsparcia, ani bez działań ze strony największych polskich firm.