Dwa lata temu Google miał gotowy „rewolucyjny” chatbot. Teraz w pośpiechu włącza sztuczną inteligencję do nowych przedmiotów. Co się wydarzyło?
Czy postęp sztucznej inteligencji Google był zbyt powolny? Czy to jest powód, dla którego Google tak spieszy się teraz z włączeniem sztucznej inteligencji do wszystkiego? Dwie najnowsze publikacje przedstawiają bardzo różne portrety Google zarówno przed, jak i po wprowadzeniu ChatGPT.
Rewolucja w wyszukiwarce Google nigdy nie miało miejsca. Według The Wall Street Journal ponad dwa lata temu dwóch badaczy Google opracowało chatbota, który miał „zrewolucjonizować sposób, w jaki ludzie przeglądają Internet i wchodzą w interakcję z komputerami”.
Mówiono jednak, że kadra kierownicza ma niechęć do ryzyka, obawiając się, że wypuszczenie produktu AI może zaszkodzić jej przychodom z reklam w wyszukiwarkach o wartości ponad 200 miliardów dolarów i jej wizerunkowi. I rzeczywiście, pośpieszne wprowadzenie Barda przez Google znacząco zaszkodziło jego reputacji.
Jakimi zasadami sztucznej inteligencji kieruje się Google? Ukierunkowane działania Google mogą być częściowo spowodowane zasadami sztucznej inteligencji. Google uważa, że oprogramowanie AI powinno:
- Bądź z korzyścią dla społeczeństwa.
- Uważaj, aby nie stworzyć ani nie promować nietolerancji.
- Być opracowany i poddany testom bezpieczeństwa.
- Bądź odpowiedzialny za innych.
- Korzystaj z koncepcji projektowych uwzględniających prywatność.
- Przestrzegaj najwyższych standardów doskonałości w nauce.
- Udostępniane do celów zgodnych z niniejszymi zasadami.
Kolejnym wewnętrznym zmartwieniem był brak źródeł. Oprócz obaw o dokładność i bezpieczeństwo, WSJ zauważa inne istotne obawy:
„Włączenie narzędzi takich jak LaMDA, które mogą skondensować miliony stron internetowych w jednym akapicie tekstu, może jeszcze bardziej zaostrzyć trwające spory Google z dużymi organizacjami informacyjnymi i innymi wydawcami internetowymi, pozbawiając strony internetowe odwiedzających. Według osoby zaznajomionej z sytuacją liderzy Google podkreślali, że firma musi wykorzystywać generatywną sztuczną inteligencję w wynikach w taki sposób, aby nie denerwować właścicieli witryn, w tym poprzez podawanie linków źródłowych”.
Jednak gdy Google demonstrowało swoje nowe możliwości wyszukiwania AI, nie było żadnych odniesień do źródeł. W rezultacie wywołało to lekkie oburzenie.
Następnie pojawiły się Code Red firmy Google i ChatGPT firmy OpenAI. Dziesięć lat temu Larry Page, współzałożyciel Google, poczynił następującą przestrogę: Szczególnie w odniesieniu do technologii „inkrementalizm z biegiem czasu prowadzi do nieistotności, ponieważ zmiany mają zwykle charakter rewolucyjny, a nie ewolucyjny”.
Czy ci się to podoba, czy nie, ChatGPT to przełomowa innowacja. Wkrótce po uruchomieniu ChatGPT pod koniec listopada Google wydał „kod czerwony” i poprosił o pomoc Page i współzałożyciela Siergieja Brina. Stanowiło to część całorocznych wysiłków mających na celu zapewnienie funkcji chatbota wyszukiwarki Google.
Następnie 6 lutego Google pospieszył z publikacją Barda, swojej odpowiedzi na ChatGPT. Microsoft planował dzień wcześniej wprowadzić zaktualizowaną wersję Bing z ChatGPT.
Firma Google podjęła teraz próbę wyjaśnienia, że Bard nie jest wyszukiwarką. Choć Bard jest odrębnym produktem, możliwości chatbota opartego na sztucznej inteligencji, które pojawiają się w wyszukiwarce, opierają się na tej samej technologii.
Co by było, gdyby Google AI zastąpiło Google Plus? Bloomberg twierdzi, że Google „upycha” teraz więcej produktów generatywną sztuczną inteligencją:
„Absolwentom Google przypomniał się ostatni raz, kiedy firma wykonała wewnętrzną dyrektywę mającą na celu wprowadzenie nowego pomysłu do każdego istotnego produktu: rozpoczętą w 2011 roku inicjatywę mającą na celu promocję skazanej na porażkę sieci społecznościowej Google+. Choć biegłość Google w zakresie sztucznej inteligencji jest niezaprzeczalna, nigdy nie była ona uważana za lidera sieci społecznościowych, więc analogia nie jest do końca trafna. Niemniej jednak wrażenia są porównywalne”.
Google nie zgodził się z tym, stwierdzając, że testowanie i ulepszanie Barda jest główną częścią własnej działalności Google. Inny Googler powiedział Bloombergowi:
Istnieje niebezpieczna mieszanka nieuzasadnionych wysokich oczekiwań i znacznego niepokoju wokół każdego projektu związanego ze sztuczną inteligencją.
Dlaczego jest to dla nas ważne. Czy Google wpada w panikę lub działa zbyt wolno? Obydwa stwierdzenia mogą być trafne lub prawda może leżeć gdzieś pośrodku, pokazując, że Google faktycznie przestrzega swoich zasad dotyczących sztucznej inteligencji. Nazwij to powolnym pośpiechem; Google może obecnie pozwolić sobie na obserwowanie i uczenie się od Microsoftu i innych graczy zajmujących się generatywną sztuczną inteligencją, aby uniknąć popełniania (dalszych) kosztownych błędów.