🚨 Ostatni dzień zapisów ze zniżką!
🚨 Zapisy na AI_Devs 3 wystartują wkrótce!
0
dni
0
h
0
m
0
s
Dołącz do listy oczekujących
← Wszystkie posty
5 min read

GPT-4 podłączone do ... Ciebie!

Czy jesteś w stanie wyobrazić sobie sytuację, w której Twoje dotychczasowe doświadczenie łączy się z całą wiedzą i umiejętnościami GPT-4?

Adam Gospodarczyk
5 min read

Takie połączenie byłoby dla Ciebie dostępne zawsze i w dowolnej formie. Co więcej, mogłoby pracować dla Ciebie również wtedy, gdy śpisz. W takiej sytuacji słowa Navala Ravikanta, inwestora z Doliny Krzemowej, staną się bardziej realne, niż mogło się do tej pory wydawać.

Aby to wyjaśnić, weźmy pod uwagę kilka faktów:

  • GPT-4 "rozumie" język naturalny i jest dostępne przez OpenAI API
  • Usługi, narzędzia i urządzenia udostępniają API
  • Programistycznie przeszukujemy bazy danych
  • Skrypty uruchamiamy zdarzeniami lub harmonogramem
  • Swobodnie czytamy, zapisujemy, aktualizujemy i usuwamy dane
  • Skutecznie zmieniamy tekst na głos i odwrotnie
  • Całkiem nieźle generujemy obrazy

I teraz to wszystko możemy ze sobą połączyć.

Pytanie tylko — po co?

GPT-4 jako Drugi Mózg

W pierwszym newsletterze AI_Devs pisałem m.in. o budowaniu dynamicznego kontekstu rozmowy z GPT-4. Pozwalało to na generowanie odpowiedzi na podstawie moich danych, co zmniejszało halucynacje i wykraczało poza bazową wiedzę modelu. Okazuje się, że można wykorzystać ten fakt do zbudowania długoterminowej pamięci, przypominającej koncepcję "Second Brain" w nowym wydaniu.

Do tej pory rozbudowane notatki prowadzone w Obsidianie, Notion czy Roam Research mogły być co najwyżej przeszukiwane, a za organizację zwykle odpowiadaliśmy sami. Dzięki Dużym Modelom Językowym (LLM), możliwa jest praktycznie swobodna interakcja ze zgromadzonymi danymi, a nawet ich automatyczna organizacja w złożonej strukturze.

Obrazek poniżej pochodzi wprost z sytuacji w której Alice (spersonalizowana wersja GPT-4) przypomniała mi link do świetnego kanału YouTube, którego nazwy niestety nigdy nie mogę zapamiętać.

Ciekawostka: Dzięki rozpoznawaniu intencji zapytania w świetle bieżącej rozmowy, zapamiętywanie nowych informacji wymaga wyłącznie ... powiedzenia Alice, aby coś zapamiętała. To wystarczy, aby opisać, ewentualnie wzbogacić i zapisać "wspomnienie", które później może być swobodnie przywołane.

GPT-4 jako (częściowo) Autonomiczny Agent

Koncepcja autonomicznych agentów, czyli systemów AI zdolnych do realizowania złożonych zadań poprzez planowanie, kolaborację i posługiwanie się narzędziami, zyskała dużą popularność dzięki projektowi AutoGPT. Dość szybko zasłynął on jednak z powolnego działania i generowania dużych kosztów i bynajmniej nie ze swojej skuteczności.

Obecnie drugi projekt AutoGen robi znacznie większe wrażenie. Jednak na tym etapie użyteczność wydaje się leżeć w zastosowaniu wybranych koncepcji z mechaniki agentów. Wówczas nie zlecamy AI kompleksowego zadania, a jego części, która wykonywana jest automatycznie, a nam pozostaje weryfikacja i ewentualne, drobne modyfikacje.

Poniżej znajduje się fragment wpisu na ~40 tysięcy znaków. Po prawej oryginalna forma w języku polskim, po lewej tłumaczenie, które zachowuje ton, kontekst i formatowanie. Normalnie przetłumaczenie tak obszernego tekstu zajęłoby kilka godzin, a tutaj zajęło kilka minut. Biorąc pod uwagę fakt, że takich wpisów jak ten mam kilkadziesiąt, to czekałoby mnie kilka tygodni pracy. A to jest tylko jeden z wielu przykładów zadań, w których pomaga mi Alice.

GPT-4 jako Twój asystent

Asystent AI może wykonywać zadania poprzez zwykłe polecenia, które nie muszą być uzależnione od trybu działania aplikacji, aktualnie aktywnej funkcji czy konkretnych słów kluczowych. Wystarczy napisana naturalnym językiem wiadomość, krótko informująca o tym, co chcemy osiągnąć. Model jest w stanie rozpoznawać naszą intencję, a następnie skojarzyć ją z listą dostępnych umiejętności, oraz faktycznie wykonać powierzone mu zadanie. Jeśli jego realizacja będzie trwać nieco dłużej (np. tłumaczenie powyższego, obszernego tekstu), może nas poinformować o rozpoczęciu pracy, a następnie wysłać maila lub wiadomość na Slacku, informując o jej zakończeniu. Przykład poniżej.

Ciekawostka: tzw. "rozpoznawanie intencji" pozwala na zastosowanie "jednego punktu wejścia" (eng. single entry point). Oznacza to, że cała interakcja z asystentem może odbywać się w jednym oknie czatu, a nawet głosowo, chociażby w zegarku (pełny film jest dostępny tutaj).

1 1697096515

GPT-4 pracujący, gdy śpisz

Rozpoznawanie poleceń i wspomniany "jeden punkt wejścia" pozwala na bardzo proste planowanie zadań uruchamianych według harmonogramu lub w wyniku wystąpienia zewnętrznych zdarzeń. Wystarczy, że do naszej aplikacji trafi zwykła wiadomość z informacją o tym, co ma zostać zrobione. Dzięki zastosowaniu Guardrails i wsparcia modelu poprzez kod w miejscach, które dotykają jego ograniczeń (np. zaawansowane obliczenia, przeliczenia dat, dostęp do aktualnej wiedzy), możemy osiągnąć bardzo wysoką precyzję przy realizowaniu różnych zadań.

Przygotowanie różnych integracji z usługami poprzez pisanie własnej aplikacji, która będzie działać wyłącznie na nasze potrzeby, może wydawać się skomplikowane i czasochłonne. Z tego powodu w takich sytuacjach znacznie mądrzej jest sięgnąć po rozwiązania, które zdejmą z nas wybrane elementy logiki, chociażby związanej z uwierzytelnieniem połączenia poprzez OAuth 2.0.

"Wyklikanie" scenariusza automatyzacji jak ten poniżej, to kwestia kilkunastu minut pracy. Co więcej, odchodzi nam tutaj konfigurowanie serwera, domeny czy monitorowania. Całość obsłużona jest przez platformę make.com, a w razie potrzeby, możemy przenieść taką logikę na kod.

Wykorzystywanie sprytnych rozwiązań do tego, aby szybciej poruszać się w nowych technologiach, pozwala skuteczniej odnajdywać się w świecie, w którym z dnia na dzień, otrzymujemy dostęp do takich funkcjonalności:

OpenAI zapowiedziało, że GPT-4 Vision pojawi się także w wersji "dla developerów". Oznacza to, że wyjdziemy poza interpretację tekstu, rozszerzając ją o rozumienie tego, co jest na obrazach. A to otwiera przed nami zupełnie nowe możliwości.

AI_Devs 2 — Połącz GPT-4 z logiką aplikacji i automatyzacji

23 października startuje druga edycja AI_Devs, 5-tygodniowego, praktycznego szkolenia z łączenia narzędzi Generative AI (w szczególności modeli OpenAI) z logiką aplikacji oraz narzędziami automatyzacji. Mówimy więc tutaj o bezpośrednim rozszerzeniu wszystkich wymienionych wyżej zagadnień oraz stosowania LLM (eng. Large Language Model) zarówno w celu optymalizacji swojej codziennej pracy i nauki, jak i zastosowań biznesowych.

AI_Devs 2 całkowicie rezygnuje z wykorzystania ChatGPT na rzecz bezpośredniego połączenia z modelami poprzez API. Szkolenie ma formę tzw. kursu kohortowego, a jego główna treść ma formę rozbudowanych wpisów, przeplatanych materiałami wideo, przykładami kodu i praktycznymi zadaniami.

W pierwszej edycji szkolenia wzięło udział 950 osób. Ponad 850 osób dołączyło już do drugiej edycji – zapowiada się grubo ponad 1000!

AI Devs 2 współtworzymy w zespole:

W drugiej edycji dołączą do nas również goście specjalni!

  • Kacper Łukawski (Developer Advocate w Qdrant)
  • Bartek Pucek (CEO Forward Operators AI Lab)
  • Bartek Rozkrut (CTO & Co-founder Edward.ai)

Do 18 października trwa promocja -300 zł, zmniejszająca cenę szkolenia do 1490 zł brutto. Więcej informacji na temat szkolenia, opinie uczestników i uczestniczek oraz szczegółową agendę, znajdziesz na stronie poniżej, zapraszamy! :)

👉 Dołącz teraz do AI_Devs

Medium length heading goes here

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique.