top of page
  • szudejkomichal

"Prompt engineering": kolejny must-have na liście umiejętności controllera?

Fakt rosnącego zainteresowania wykorzystaniem sztucznej inteligencji (czy raczej zaawansowanych narzędzi uczenia maszynowego), w tym modeli językowych takich jak GPT-3.5 czy GPT-4 nie budzi już chyba żadnej wątpliwości.


Chat GPT, wykorzystujący te modele, generuje odpowiedzi na zadane pytania (prompty) na podstawie nauczonej struktury i zależności językowych. Jednocześnie, wielu użytkowników próbując korzystać z tych narzędzi, nie zawsze uzyskuje satysfakcjonujące rezultaty, zwłaszcza na początku. Musimy pamiętać, że wymienione modele językowe opierają się na statystycznych zależnościach w danych, na których były trenowane. Nie zawsze odpowiedzą dokładnie tak, jak oczekujemy.


Okazuje się, że rodzi się nowa dziedzina wiedzy: prompt engineering. Mało tego, umiejętność ta pojawia się coraz częściej na liście wymagań w ogłoszeniach rekrutacyjnych (sprawdziłem to przed chwilą osobiście na LinkedIn :) ).


Prompt engineering to proces konstruowania i dostrajania pytań, czyli "promptów", dla modeli językowych takich jak GPT-3 czy GPT-4, w celu uzyskania optymalnych wyników.

Dobrze skonstruowane prompty mogą skierować model do generowania bardziej trafnych, użytecznych i zgodnych z kontekstem odpowiedzi.


Zanim podzielę się kilkoma poradami w zakresie pisania promptów, spróbuję odpowiedzieć na pytanie postawione w temacie. Nie będę trzymał Państwa w niepewności: Uważam, że tak. Już niebawem ta umiejętność będzie kolejnym punktem na liście wymagań: zaraz po lub tuż przed biegłą znajomością Excela.


Moje zdanie w temacie jest takie, że technologie uczenia maszynowego czy tzw. Generative AI tylko wtedy będą stanowić przełom w biznesie i analizie, jeżeli będą z nich mogły skutecznie korzystać osoby bez większego doświadczenia czy wiedzy informatycznej. W szczególności umiejętności programowania. Dziś, mam wrażenie, idzie to w trochę odmiennym kierunku. Większość osób, które używa dziś i propaguje te narzędzia (przynajmniej w moim otoczeniu), ma większe lub mniejsze doświadczenie programistyczne. Zaznaczam przy tym, że jest to moja subiektywna opinia.


Bazując jednak na tej subiektywnej opinii, uważam, że inwestycja w umiejętność pisania promptów będzie zdecydowanie mieć pozytywne ROI.


Dzięki temu uzyskamy lepszej jakości odpowiedzi od modelu a tym samym zwiększymy szansę na jego efektywne wykorzystanie w działalności biznesowej. Już dziś Chat GPT, w szczególności wzbogacony o wtyczki, daje możliwość analizy niemalże dowolnych zestawów danych, przy pomocy różnych technik (przygotowuję publikację, w której pokażę krok po kroku jak wykonać taką analizę, please stay tuned :D ).

Niemniej, dzięki umiejętności pisania promptów lepiej ocenimy zdolności modelu: co jest on a czego nie jest w stanie zrobić. Osobiście widzę tu zresztą w chwili obecnej dość duże niezrozumienie. A na koniec: zyskamy cenną i potencjalnie poszukiwaną na rynku pracy umiejętność.


Oto kilka technik pisania promptów, które mogą pomóc w lepszym wykorzystaniu modeli językowych:

  1. Szczegółowość: Dostarczenie jak najwięcej szczegółów w prompcie może pomóc modelowi zrozumieć, czego oczekujesz od odpowiedzi. Na przykład, zamiast pytać "Czy jest gorąco na Marsie?", możesz zapytać "Jakie są średnie temperatury na powierzchni Marsa w ciągu dnia?"

  2. Rodzaj odpowiedzi: Jeśli oczekujemy określonego rodzaju odpowiedzi, warto to zaznaczyć w prompcie. Na przykład, zamiast pytać: "Opowiedz mi o Grecji", lepiej jest napisać "Opowiedz mi o Grecji w formie pięciu punktów dotyczących jej historii, kultury i geografii."

  3. Symulowanie dialogu: Możemy sformułować swój prompt w formie dialogu, dodając na początku kilka wymyślonych interakcji, aby dać modelowi kontekst. Na przykład: Użytkownik: Cześć, chciałbym dowiedzieć się więcej o Grecji. Chat GPT: Oczywiście! Czy interesują cię konkretnie jej historia, kultura, geografia, czy może coś innego? Użytkownik: Chciałbym poznać pięć ciekawostek związanych z historią Grecji.

  4. Oczekiwany format odpowiedzi: Jeśli chcemy, aby model zwrócił odpowiedź w określonym formacie, możemy to zaznaczyć w prompcie. Na przykład, jeśli chcemy otrzymać odpowiedź w formie listy, możesz zacząć swój prompt od "Wylistuj...".

  5. Dostrajanie: Model językowy jak GPT-3 lub GPT-4 opiera się na statystycznych zależnościach w danych, na których był trenowany, więc nie zawsze odpowie dokładnie tak, jak oczekujesz. Dostrajanie promptów jest często procesem iteracyjnym, który wymaga testowania i dostosowywania.

Na poniższej grafice zaprezentowałem kilka możliwych taktyk iteracyjnego pisania promptów.

Są to jedynie wybrane przykłady, które zaczerpnąłem z artykułów zamieszczonych na stronie TheAiEdge.io.




Podsumowując, uważam, że inwestycja przynajmniej w podstawową umiejętność korzystania z narzędzi takich jak Chat GPT będzie opłacalną. Wydaje mi się, że jest to póki co raczkująca gałąź wiedzy. Niemniej krzywa rozwoju technologii opartych na modelach językowych, oraz rosnąca liczba ich możliwości biznesowych sama w sobie dowodzi, że jest to kierunek którym koniecznie trzeba się zainteresować.

66 wyświetleń0 komentarzy

Ostatnie posty

Zobacz wszystkie
bottom of page