
Kilka dni temu ruszyła polska strona internetowa Czat.ai, gdzie bez abonamentu i bez logowania można wykupić dostęp do czata GPT-4. Rozmowy z czatem zostały na niej od razu sformatowane i możemy rozmawiać m.in z czatem jako ogrodniczką, z informatyczką, z konsultantem biznesowym, astrologiem, wróżką czy dietetyczką a nawet z czatem udającym pieska czy kotka. W takiej rozmowie czat przejawia inicjatywę i od samego początku, nawet jeśli nie umiemy poprawnie zadawać pytań, kopiuje znane mu informacje na konkretne tematy. To może przyspieszyć uzyskanie właściwej, szukanej odpowiedzi. Stronę wymyślił Michał Jaskólski (Morizon.pl i Gratka.pl). Specjalnie do tego powołał nową spółkę, Wondel.ai. Napisałem do niego mejla z pytaniami do krótkiego wywiadu.
– Czym zajmuje się Wondel.ai?
– Wondel.ai powołałem do życia jako dedykowaną spółkę dla eksperymentów z AI, które realizuję po godzinach. Pierwszy raz z GPT miałem styczność ponad rok temu, jeszcze za czasów GPT-3.0 i na długo przed pojawieniem się ChatGPT. Celem Wondel.ai jest testowanie konceptów różnych produktów dla szerokiego grona potencjalnych użytkowników.
Bardzo szybko uzyskałem dostęp do GPT-4 i przekonałem się jak ogromna jest różnica w możliwościach tego modelu w porównaniu do GPT-3.5. Okazało się też, że bardzo niewielka grupa osób, nawet z branży technologicznej, jest tego świadoma – i niekoniecznie są gotowe płacić co miesiąc 100 zł abonamentu za ChatGPT Plus z GPT-4. Z kolei nawet te osoby, które z niego korzystały, nie do końca wiedziały jak wykorzystać jego możliwości i nie znały zawiłości promptowania.
Równolegle im dłużej pracowałem z GPT-4, tym bardziej przekonywałem się, że jest pierwszym modelem, który pozwala na realizację znanych z filmów sci-fi wizji o doradcach, asystentach, towarzyszach czy ekspertach, którzy byliby przydatni praktycznie dla każdego i dostępni o każdej porze dnia i nocy. GPT-3.5 mylił się i halucynował zbyt często, by miało to sens.
Non stop pokazują się zresztą artykuły naukowe z różnego rodzaju badaniami porównującymi jakość odpowiedzi zwracanych przez GPT-4 z branżową wiedzą ekspercką. Dzielę się nimi regularnie na Facebooku (https://www.facebook.com/michal.jaskolski) i Twitterze (https://twitter.com/jaskolski_pl). Często GPT-4 radzi sobie lepiej od ekspertów – nawet w obszarze tak kluczowym jak medycyna.
Wyobraziłem sobie więc jak powinien wyglądać idealny produkt umożliwiający możliwie szerokiemu gronu użytkowników regularny kontakt z AI, świadomie eliminując wszystkie możliwe bariery (od znajomości angielskiego przez konieczność płacenia abonamentu, czy zakładania konta po znajomość promptowania, a nawet klikanie zgody cookies). Tak powstał Czat.ai.
Nie mam jednak obecnie oczywiście możliwości sponsorowania kosztów API z własnej kieszeni w długim terminie, stąd dodanie płatności – na najniższym możliwym poziomie, by obniżyć barierę wejścia.
– Czemu nie zdecydowaliście zbudować modelu częściowo płatnego i częściowo za darmo? Na przykład czatowanie z „piesekiem” albo z „kotkiem” za darmo (GPT-3,5) a porady biznesowe, astrologiczne czy szkolne już płatne?
– Moim celem było utrzymanie wysokiej jakości odpowiedzi, nawet w czatbotach rozrywkowych, nawet kosztem popularności/zasięgu. Gwarantuje to tylko GPT-4. Są oczywiście serwisy, które poszły inną drogą – np. Character.ai, wyceniany na miliard dolarów. Gdy kilka tygodni testowałem postaci stworzone przez jego użytkowników, doświadczenie rozmowy z nimi nie było szczególnie przekonujące. Teraz widzę, że mocno promują wersję płatną, czyli character.ai+ z abonamentem $9.99/miesiąc.
– Ile Was kosztowało postawienie takiej strony ze sformatowanymi czatami? Koszty jakiego rzędu?
– Czat.ai wykorzystuje rozwiązania, których koszty zmieniają się wraz ze wzrostem popularności. Najwięcej jak dotąd kosztowały domeny, jednak te prawdopodobnie tak czy inaczej się zwrócą. Z kolei teraz znaczącą część kosztów stanowi oczywiście koszt zapytań do GPT-4.
Model GPT-4 uczestniczył w samym tworzeniu strony, realizując sporą część prac programistycznych. Znacząco przyspieszyło to realizację projektu.
– Wiem, że oprócz zbudowania strony Czat.ai wdraża Pan sztuczną inteligencję generatywną na inne sposoby. Jak?
– Byłem pomysłodawcą stworzenia wyszukiwania wykorzystującego AI w Morizonie i Gratce. Naszemu zespołowi w kilka tygodni udało się stworzyć rozwiązanie, które na podstawie zapytania tekstowego lub głosowego (na telefonie) w stylu „Będziemy mieć trojaczki i potrzebuję większego mieszkania. Teraz mamy dwupokojowe mieszkanie na Żoliborzu, szukamy czegoś w okolicy Mokotowa” jest w stanie wskazać pasujące ogłoszenia nieruchomości. Można je wypróbować na https://www.morizon.pl/mieszkai i https://gratka.pl/szukai
– Czy widzi Pan jakieś zastosowanie czata GPT-4 w branżach, w których jest Pan aktywny? Czy ma Pan stosowne plany?
Cały czas jestem aktywny w Morizon.pl (nieruchomości), staram się też w miarę możliwości wspierać Lendi.pl (finanse). W obu tych obszarach ciągle szukamy sposobów na wykorzystanie AI w celu łatwiejszego wyszukiwania oraz wygodniejszego sprzedawania nieruchomości, a także wsparcia klienta w procesie starania się o kredyt hipoteczny.
– Jak sztuczna inteligencja przydaje się ona w pośrednictwie nieruchomości? Jakie konkretnie procesy przyspiesza? Co daje firmie a co klienteli? Czy dzięki wprowadzeniu algorytmów mógł Pan redukować zatrudnienie w firmie?
Morizon.pl to nie tyle pośrednictwo nieruchomości, co marketplace z ogłoszeniami nieruchomości, ale oczywiście analizujemy rynek, rozmawiamy z agencjami i testujemy różne narzędzia. Spodziewam się, że praca agenta będzie w dużej mierze skupiać się na kontakcie face-to-face z klientami, a wszystkie inne czynności (na przykład przygotowywanie ogłoszeń, szukanie dopasowanych ofert, itd.) zostaną dość szybko zautomatyzowane. Nie planujemy redukcji zatrudnienia, za to spodziewamy się, że dzięki szerszemu wykorzystaniu AI, będziemy w stanie działać znacznie sprawniej i efektywniej bez konieczności powiększania zespołu.
– Jakie Pan widzi największe przeszkody dla rozwoju branży AI w Polsce? Najczęściej mówi się o braku danych dobrej jakości oraz o kosztach obliczeń.
– Jeśli chodzi o wykorzystywanie gotowych modeli, na pewno jest zamieszanie wokół kwestii prawnych. Niektórzy wklejają poufne dokumenty do ChataGPT – mimo, że mogą być wykorzystywane do trenowania modelu. Inni obawiają się korzystać z API GPT – mimo, że bezpieczeństwo danych jest tu dużo wyższe. Prawdopodobnie dopiero udostępnienie modeli w ramach rozwiązań chmurowych takich jak Microsoft Azure zmieni ten stan rzeczy. Koszty nie stanowią aż takiej bariery.
Jeżeli chodzi o wyższy poziom, czyli tworzenie i trenowanie własnych modeli – to faktycznie, wymaga to ogromnych zasobów obliczeniowych oraz ogromnej ilości danych dobrej jakości. I tu pojawia się temat tak zwanego „narodowego LLM”, który zaczął Kuba Filipowski: https://www.kubafilipowski.com/blog/2023/5/18/yb0moxaembn3ewth7tdehk5jivrcna, inspirując mnie do przygotowania pytania, które Sylwia Czubkowska zadała Samowi Altmanowi. Pytanie dotyczyło tego jak jako kraj możemy zapewnić, by informacje o naszej kulturze, literaturze, sztuce czy geografii były integralną częścią kolejnych modeli LLM, bo tylko tak można będzie zadbać o ich zachowanie. To bardzo ciekawy wątek, który zamierzam niedługo rozwinąć w swoim newsletterze (https://jaskolski.substack.com). Myślę, że aby do tego doprowadzić, nie obejdzie się ani bez rządowego lub unijnego wsparcia, ani bez działań ze strony największych polskich firm.