🔐 Bezpieczna AI w biznesie - co musisz wiedzieć?
➕ Anthropic rozszerza możliwości swoich modeli AI - Claude 3.5 Sonnet z funkcją kontroli komputera, zapowiedź Claude 3.5 Haiku oraz wdrożenie agentów AI.
🔉Wolisz wersję audio? Nie możesz przeczytać teraz maila?
Przesłuchaj tutaj
Możesz nas słuchać także na Apple Podcast i Spotify.
🎯W DZISIEJSZYM WYDANIU
🎓 AI od zera do zrozumienia: 🔐 Bezpieczna AI w biznesie - co musisz wiedzieć?
🥡 AI na Wynos:
a. NADCHODZI AI PREMIERA!
b. Anthropic rozszerza możliwości swoich modeli AI
c. Runway ML rewolucjonizuje animację
d. ElevenLabs wprowadza Voice Design
e. Qatar Airways z przełomowym wdrożeniem
f. Przełomowa seria modeli AI do generowania obrazów!
g. Wizja robotycznej przyszłości
h. Polski sukces w robotyce: wrocławski Clone prezentuje Torso!
📚 Rekomendowana Biblioteka:
a. AI Waves powraca z 9. edycją poświęconą bezpieczeństwu aplikacji GenAI
Autor niniejszego tekstu, Łukasz Boruń, jest twórcą
- newslettera, który łamie konwencje w mówieniu o technologii i sztucznej inteligencji. to więcej niż blog czy newsletter - to miejsce, gdzie chaos staje się kreatywnością, a neurorożnorodność spojrzenie przekuwa się w innowacyjne rozwiązania technologiczne.Kim jest twórca? Łukasz to doświadczony architekt rozwiązań AI z blisko 20-letnim stażem w branży IT. Jego ścieżka kariery - od administratora, przez programistę, po team leadera - ukształtowała unikalne podejście do technologii. Jednak tym, co naprawdę wyróżnia jego perspektywę, jest neurorożnorodny umysł, który pozwala mu dostrzegać wzorce i możliwości tam, gdzie inni widzą chaos.
Zainteresowany świeżym spojrzeniem na AI, technologię i work-life harmony? Dołącz do społeczności
.W ciągu ostatnich dwóch lat, od czasu gdy GPT-3.5 zaczął zdobywać popularność, nastąpiła znacząca zmiana w sposobie korzystania z technologii. Dlaczego? Ponieważ, podobnie jak w przypadku upowszechnienia internetu, sztuczna inteligencja zaczęła skutecznie rozwiązywać nasze codzienne problemy. Bądźmy szczerzy – kto dziś nie korzysta z AI w swojej codziennej rutynie?
Skoro tego rodzaju technologia zaczęła ułatwiać nasze życie prywatne, nie dziwi fakt, że firmy będą pierwszymi, które spróbują wykorzystać ją na jak największą skalę. Rodzi to wiele pytań dotyczących etyki, konsekwencji, prywatności danych czy zasadności wykorzystania AI do zastępowania ludzi w różnorodnych zadaniach.
To z pewnością będzie fascynujący temat na kolejny artykuł. Dziś jednak chciałbym skupić się bardziej na aspekcie bezpieczeństwa w komercyjnym zastosowaniu tej technologii. Choć jej korzenie sięgają daleko wstecz, to właśnie teraz, w nowej odsłonie, zaczyna ona dominować w każdym aspekcie naszego życia.
Koncentracja na rozwiązaniach
Jak zawsze, gdy nowa technologia zaczyna pukać do naszych drzwi, firmy technologiczne (zarówno małe, jak i duże) biorą udział w wyścigu, by pierwsze przekroczyć linię mety, oferując swoje doskonałe rozwiązania naszych problemów. Dlatego dziś, gdy próbujemy zdobyć nowe informacje o produktach AI, jesteśmy przytłoczeni nowymi podejściami do RAG (Retrieval-Augmented Generation), Agentów, Multi-Agentów (grr... pisząc o agentach, zacząłem spisywać swoje narzekania na temat tego, jak wielu ludzi próbuje nadużywać tego, czym one naprawdę są... ale ok, wracam do tematu) i nowych produktów, które rzekomo ratują nasze życie w taki czy inny sposób, ale są klonami podobnych produktów.
Jak często bywa, kuszące jest prezentowanie nowych rozwiązań, skupiając się wyłącznie na ich zaletach i pomijając istotne kwestie w dyskusji.
Prawdziwym wyzwaniem jest przekucie obaw w realne korzyści finansowe.
Perspektywa biznesowa
Zrozumienie technologii
Jako Architekt Rozwiązań AI, moim priorytetem jest dogłębne zrozumienie wyzwań naszych klientów oraz ich otoczenia biznesowego. To pozwala mi uzyskać kompleksowy wgląd w ich unikalne potrzeby i kontekst branżowy. Uczciwość jest jedną z moich kluczowych wartości, dlatego poświęcam znaczną ilość czasu na wyjaśnianie, że technologia GenAI nie jest magicznym rozwiązaniem dla wszystkich problemów, które wcześniej wymagały obszernej pracy programistycznej. Choć korzystanie z GenAI może być bardziej ekonomiczne, nadal wymaga integracji i dostosowania.
Aby lepiej zobrazować mój punkt widzenia, rozważmy kwestię automatyzacji. Warto podkreślić, że żaden z obecnie popularnych modeli LLM nie został stworzony z myślą o bezpośredniej automatyzacji procesów. Ich głównym zadaniem jest odpowiadanie na pytania i generowanie treści.
Na rynku istnieje wiele zaawansowanych platform low-code/no-code do automatyzacji procesów, takich jak Make, Zapier czy n8n. W tym kontekście, GenAI stanowi dodatkowy, potężny komponent, który można zintegrować z łańcuchem pełnego procesu. Ta technologia może zastąpić lub połączyć niektóre elementy innych procesów, czyniąc cały system bardziej przejrzystym i łatwiejszym w utrzymaniu.
Kluczowe jest zrozumienie, że niezależnie od tego, który model LLM chcielibyśmy wykorzystać do rozwiązywania złożonych problemów w produktach lub procesach firmowych, zawsze będzie wymagana dodatkowa praca integracyjna i dostosowawcza. GenAI to potężne narzędzie, ale jego efektywne wykorzystanie wymaga przemyślanego podejścia i odpowiedniego wdrożenia.
Praca z danymi firmowymi
Na początku ery sztucznej inteligencji generatywnej wiele produktów koncentrowało się na chatbotach. Nie powinno to dziwić, gdyż stosunkowo łatwo było przekształcić wiedzę firmową w wektory i wprowadzić odpowiednie fragmenty do promptu modelu językowego, uzyskując satysfakcjonującą odpowiedź. To wszystko działo się jeszcze przed erą RAG (Retrieval-Augmented Generation). Obecnie proces ten stał się jeszcze prostszy!
Chatboty i bazy wiedzy są teraz ściśle ze sobą powiązane, co sprawia, że łatwiej jest uzyskać informacje od firmowego bota niż przeszukiwać tysiące stron w firmowym Confluence. Jednakże ta wygoda może nieść ze sobą pewne ryzyka.
Choć temat ten zasługuje na osobny artykuł, skupmy się na uproszczeniu tego procesu. Wyobraźmy sobie scenariusz, w którym firmowy chatbot otrzymuje pełny dostęp do wiedzy zgromadzonej w Confluence (firmowej bazie danych). W typowych platformach programowych, takich jak Confluence, istnieje warstwa kontroli dostępu dla różnych typów dokumentów, oparta na uprawnieniach przypisanych do adresów e-mail lub grup. Jeśli podczas integracji nie uwzględnimy tych zabezpieczeń, możemy nieświadomie ominąć kontrole bezpieczeństwa, ponieważ proces zasilający LLM danymi może pobierać wszystkie informacje przez API. Oczywiście, jest to uproszczony scenariusz, a doświadczeni integratorzy są świadomi tego problemu i starają się go rozwiązać w procesie implementacji.
Dla zobrazowania problemu, jako programista i architekt, zauważyłem w analitykach, że pracownicy często próbują uzyskać od bota informacje poufne, np. pytając o zarobki ich współpracowników. To naturalna ludzka ciekawość, o której musimy pamiętać podczas projektowania takich systemów, ponieważ otwarty input i czynnik ludzki są tutaj ogromnym problemem.
J.A.R.V.I.S.
Wyobraź sobie, że masz własnego J.A.R.V.I.S.-a (AI z Iron Mana) – inteligentną istotę zdolną do obsługi wielu zadań i potencjalnie ratowania życia. Chociaż pozostaje to marzeniem, dzisiejsze Duże Modele Językowe jak GPT-4, Claude 3.5 Sonnet, Gemini czy LLAMA robią znaczące postępy w zakresie możliwości wielozadaniowych.
Te LLM-y doskonale radzą sobie z różnymi zadaniami, jednak nie są tak wszechstronne, jak moglibyśmy mieć nadzieję. Mając podstawową znajomość pisania promptów, możemy niezawodnie uzyskiwać dobre odpowiedzi na proste pytania, generować podsumowania tekstu lub tworzyć tłumaczenia. Jednak wyzwania pojawiają się, gdy próbujemy połączyć ze sobą wiele złożonych zadań.
Na przykład, podsumowanie artykułu, przetłumaczenie go, a następnie stworzenie e-maila z naszymi przemyśleniami na temat treści jest możliwe, ale nie zawsze bezproblemowe. Sukces takich wieloetapowych procesów zależy od kilku czynników:
- Jakości i specyfiki naszych promptów
- Ograniczeń okna kontekstowego modelu
- Wewnętrznych możliwości wybranego LLM
Chociaż nie jesteśmy jeszcze na poziomie asystenta AI jak J.A.R.V.I.S., szybkie postępy w technologii LLM nadal zmniejszają przepaść między science fiction a rzeczywistością. Więc niezależnie od tego, czy jesteś integratorem, czy firmą poszukującą rozwiązania, warto pamiętać, że LLM działają najlepiej, gdy zadanie jest dobrze opisane, określone i ma pojedynczą odpowiedzialność. Jeśli nie, zawsze możemy uruchomić dwa oddzielne zadania LLM i połączyć wyniki z trzecim. Albo możemy użyć agentów... czekaj, to w zasadzie to samo, ale jak powiedziałem wcześniej, porozmawiamy o tym później.
Perspektywa technologiczna
Chat - problem otwartego inputu
Istnieje kluczowa różnica między wdrożeniem usługi LLM z funkcjonalnością czatu a usługą bez możliwości wprowadzania tekstu przez użytkownika. Usługi z włączonym czatem wprowadzają element nieprzewidywalności, ponieważ nie możemy przewidzieć ani kontrolować szerokiego zakresu promptów, które użytkownicy mogą przesłać. Ta zmienność w danych wejściowych stwarza unikalne wyzwania i wymaga przemyśleń w zakresie projektowania systemu, moderacji treści i zarządzania doświadczeniem użytkownika.
W przeciwieństwie do tego, usługi LLM bez funkcji czatu działają w bardziej zdefiniowanych parametrach, pozwalając na większą kontrolę nad danymi wejściowymi i wyjściowymi. To kontrolowane środowisko może być korzystne dla określonych zastosowań, zapewniając spójność i zmniejszając potencjalne ryzyko związane z nieoczekiwanymi lub nieodpowiednimi danymi wejściowymi od użytkowników.
Jednak oba rozwiązania będą otwarte na niekontrolowane użycie, jeśli nie zadbamy o wdrożenie dodatkowych kroków poprawiających bezpieczeństwo naszego rozwiązania.
Output jest tak samo ważny jak input
Podczas wdrażania LLM jako usługi, kluczowe jest ustanowienie jasnych zabezpieczeń i kryteriów oceny. Takie podejście gwarantuje optymalne wykorzystanie, utrzymuje wysoką jakość i maksymalizuje wartość uzyskaną z integracji LLM.
Choć tworzenie odpowiednich danych wejściowych jest istotne, równie ważne — jeśli nie ważniejsze — jest dokładne analizowanie danych wyjściowych. Inżynieria promptów odgrywa zasadniczą rolę w kształtowaniu "osobowości" LLM, określaniu sposobu przetwarzania danych wejściowych, ustalaniu zakresu akceptowalnych treści oraz formowaniu struktury danych wyjściowych. Dla prostych rozwiązań może to być wystarczające, jednak wraz ze wzrostem popularności produktu, solidne środki bezpieczeństwa stają się coraz bardziej niezbędne, gdyż potencjalne ataki stają się nieuniknione.
Priorytetowe traktowanie weryfikacji odpowiedzi LLM przed ich przekazaniem użytkownikowi końcowemu może zapobiec licznym problemom. Istnieje kilka skutecznych metod implementacji tego zabezpieczenia:
Wykorzystanie dodatkowego wywołania LLM z promptem Chain of Thought (łańcuch myślowy).
Wdrożenie systemów filtrowania opartych na regułach.
Zastosowanie analizy sentymentu do oznaczania potencjalnie nieodpowiednich treści.
Użycie klasyfikatorów treści do kategoryzacji i walidacji wyników.
Wdrożenie przeglądu danych wyjściowych z udziałem człowieka dla krytycznych zastosowań. (Human-in-the-loop)
Przyjmując kompleksowe podejście, uwzględniające zarówno dane wejściowe, jak i wyjściowe, można stworzyć bezpieczniejszą, niezawodną i efektywną usługę opartą na LLM. Taka strategia nie tylko poprawia doświadczenie użytkownika, ale także chroni integralność produktu w miarę jego skalowania.
Brakująca ewaluacja
Kluczowa zasada, o której warto pamiętać, to brak zaufania zarówno do danych wejściowych, jak i wyjściowych. Jest to szczególnie istotne w kontekście funkcji czatu. Dlatego niezbędne jest stworzenie solidnego mechanizmu weryfikacji danych wyjściowych. Choć temat ten był już poruszany, wciąż istnieją pewne kroki, które należy podjąć przed wdrożeniem rozwiązania.
Ewaluacje powinny opierać się na starannie przygotowanych scenariuszach, obejmujących zarówno dane wejściowe, jak i wyjściowe. W ramach tych scenariuszy możemy przeprowadzić kompleksową weryfikację — od sprawdzenia obecności odpowiednich słów kluczowych po analizę struktury danych wyjściowych. Ważne jest, aby nie ograniczać się wyłącznie do przewidywalnych sytuacji, ale również symulować różnorodne próby ataków. Ostatecznym celem powinno być zapewnienie pomyślnego przejścia każdego scenariusza.
Warto podkreślić, że dzięki możliwościom GenAI jesteśmy w stanie wygenerować nieograniczoną liczbę scenariuszy testowych. Sposób ich integracji z procesem rozwoju zależy od indywidualnych potrzeb i specyfiki projektu.
Guardrails
Precyzyjne wytyczne dla Twojego systemu AI są kluczowe w minimalizowaniu ryzyka i utrzymaniu go na właściwym kursie. Zasady te powinny obejmować szereg aspektów, takich jak protokoły komunikacji, kryteria odpowiednich treści oraz kwestie etyczne.
Przy opracowywaniu tych wytycznych, niezwykle cenne jest zaangażowanie specjalistów z różnych dziedzin, w tym prawników i ekspertów branżowych. Takie interdyscyplinarne podejście zapewnia kompleksowość i uwzględnienie wszystkich istotnych aspektów w tworzonych zasadach.
Biorąc pod uwagę dynamiczny rozwój technologii AI i zmiany społeczne, regularna weryfikacja i aktualizacja tych wytycznych jest niezbędna. Pozwala to na dostosowanie zasad do aktualnych wyzwań i potrzeb, zapewniając tym samym skuteczność i adekwatność systemu AI w długiej perspektywie.
Największy wróg
Pozwólcie, że zakończę jeszcze jedną kluczową tezą.
Nasze największe wyzwanie tkwi w nieprzewidywalności ludzkich użytkowników. Ogromna różnorodność osób wchodzących w interakcję z naszym produktem, każda z własnymi unikalnymi intencjami i doświadczeniami, tworzy skomplikowany labirynt potencjalnych scenariuszy.
Ten ludzki czynnik wprowadza bezprecedensowy poziom niepewności. W konsekwencji kluczowe staje się dla nas projektowanie solidnych, adaptowalnych systemów, które potrafią sprawnie nawigować po tej nieprzewidywalności. Jednocześnie musimy nieustannie dbać o bezpieczeństwo, przestrzegać standardów etycznych i zapewniać satysfakcję użytkownika.
Właśnie dlatego na początku tego artykułu podkreślałem znaczenie zrozumienia technologii. Generatywna Sztuczna Inteligencja jest potężnym narzędziem, ale z tą mocą wiąże się szereg kwestii dotyczących bezpieczeństwa i zabezpieczeń. Zarówno biznes, jak i technologia, powinny mieć je na uwadze przed rozpoczęciem, w trakcie oraz po zakończeniu procesu rozwoju oprogramowania.
W dzisiejszym wydaniu AI w Praktyce zapraszamy Cię do naszej społeczności na Discord. To tam właśnie hartujemy nasze umiejętności, podpytujemy społeczność o ich AI tricki, obrastamy w kompetencje, dowiadujemy się o nowych narzędziach oraz pozyskujemy wiedzę o świecie AI. Na forum horyzontu znajdziesz grafików, muzyków, programistów, oraz entuzjastów. Nie ma takiej AI społeczności w polskim internecie jak nasza! Dołącz do nas, nie będziesz żałować! TUTAJ!
Co ponadto u nas? Jesteśmy obłożeni tworzeniem materiałów dla różnych wydarzeń i szkoleń:
Prowadzimy szkolenia “Akademia AI” dla zespołu firmy Connectis. Zobacz o czym.
Prowadzimy warsztat “AI: AI w Hotelarstwie: praktyczne narzędzia i zastosowania" dla Hotel Marketing Conference 2024. Zobacz więcej.
Jak być na bieżąco z nowościami w świecie AI?
Ciągły napływ informacji o nowych modelach, narzędziach i badaniach może być przytłaczający. Dlatego stworzyłem coś, co może Ci pomóc - agregator newsów AI. Opisałem to szrzej w poprzednim czwartkowym wydaniu newslettera.
Wiadomości z ostatnich kilku dni:
Podsumowanie 22/10-23/10 (kliknij, aby zobaczyć): Nvidia rozmawia z Indiami o współpracy przy tworzeniu chipów AI, OpenAI wprowadza zaawansowany tryb głosowy ChatGPT w Europie, a Stability AI wypuszcza model Stable Diffusion 3.5. Sztuczna inteligencja jest także coraz bardziej obecna w medycynie i robotyce, a Zoom współpracuje z Suki w zakresie automatyzacji notatek medycznych.
Podsumowanie 21/10-22/10 (kliknij, aby zobaczyć): Administracja Bidena apeluje o współpracę USA i Chin w dziedzinie AI, kładąc nacisk na etykę i bezpieczeństwo technologii. Tymczasem IBM wprowadza otwarte modele Granite 3.0, które mają zrewolucjonizować przemysł, a Microsoft ogłasza uruchomienie autonomicznych agentów AI za pomocą Copilot Studio. Na froncie medycyny, Harvard prezentuje model AI, który z 96% dokładnością diagnozuje nowotwory.
Podsumowanie 20/10-21/10 (kliknij, aby zobaczyć): NVIDIA prezentuje innowacyjny system generowania obrazów z MIT i Tsinghua, Zoom wprowadza interaktywnego awatara AI, a JAMA uruchamia kanał podkreślający przełomowe zastosowania AI w medycynie. Microsoft otwiera nowe możliwości dla deweloperów dzięki BitNet, a Apple przyspiesza prace nad zaawansowanymi układami scalonymi, planując dogonić konkurencję w AI do 2025 roku.
🥡 AI na Wynos
➡️ [WSPÓŁPRACA] NADCHODZI PREMIERA! Już 22.11.24 nakładem wydawnictwa Prześwity na półki trafi bestseller: Fei-Fei Li “Moje światy sztuczne i realne. Jak narodziła się AI najnowszej generacji” - tu zamówisz w przedsprzedaży. Horyzont poleca 👌🏻
➡️ Anthropic rozszerza możliwości swoich modeli AI - Claude 3.5 Sonnet z funkcją kontroli komputera, zapowiedź Claude 3.5 Haiku oraz wdrożenie agentów AI. Firma pokazuje, że zamierza konkurować z największymi w branży - czytaj więcej o nowościach od Anthropic. I to jest coś niesamowitego, bo Ci agenci potrafią rozwiązywać Captchę (narzędzia do sprawdzania do tego czy jesteś robotem, powszechne na wielu stronach internetowych).
➡️ Runway ML rewolucjonizuje animację - nowe narzędzie Act-One pozwala ożywić postacie przy użyciu zwykłego wideo, bez specjalistycznego sprzętu. Tworzenie animacji staje się prostsze niż kiedykolwiek - czytaj więcej.
➡️ ElevenLabs wprowadza Voice Design - przełomową funkcję generowania unikalnych głosów z samego opisu tekstowego❗️Nie znalazłeś odpowiedniego głosu w bibliotece? Teraz możesz stworzyć własny za pomocą prostego prompta - czytaj więcej.
➡️ Qatar Airways z przełomowym wdrożeniem - pierwszy na świecie lot Boeingiem 777 wyposażonym w internet satelitarny Starlink. Linie lotnicze podnoszą poprzeczkę w zakresie łączności na pokładzie✈️ - czytaj więcej.
➡️ Stability AI udostępnia Stable Diffusion 3.5 - przełomowa seria modeli AI do generowania obrazów! Dwie wersje (Large i Large Turbo) dostępne już teraz, Medium pojawi się 29 października❗️Modele działają na konsumenckim sprzęcie i są darmowe do użytku komercyjnego - czytaj więcej.
➡️ Stephen Ibaraki, światowej sławy futurysta i ekspert AI, przewiduje rewolucję robotyczną w naszych domach❗️Ceny robotów mają spaść z obecnych 16 tys. do 5 tys. dolarów w ciągu dwóch lat - czytaj więcej o przyszłości robotyki według eksperta wyróżnionego 13-krotnie tytułem Microsoft MVP.
➡️ Polski sukces w robotyce: wrocławski Clone prezentuje Torso - zaawansowanego androida z dwoma ramionami, napędzanego sztucznymi mięśniami. Kolejny krok w rozwoju humanoidalnej robotyki prosto z Polski 🤖 - czytaj więcej.
AI Waves powraca z 9. edycją poświęconą bezpieczeństwu aplikacji GenAI
Diana Kelly, Łukasz Boruń i Deepak Prabhakara podzielą się wiedzą o największych wyzwaniach bezpieczeństwa, przypadkach rzeczywistych naruszeń i praktycznych strategiach zabezpieczania aplikacji opartych na LLM 🔐
Jeśli masz jakieś ekscytujące pomysły lub projekty, śmiało się z nami skontaktuj, odpowiadając na ten email lub śledząc nas na X: @JakubNorkiewicz @oskar_korszen