Do promptu wklejasz poufne informacje? Uważaj! - Marketing przy Kawie
Uważaj, co wklejasz do promptu, czyli o ochronie informacji w dobie generatywnej AIUważaj, co wklejasz do promptu, czyli o ochronie informacji w dobie generatywnej AIUważaj, co wklejasz do promptu, czyli o ochronie informacji w dobie generatywnej AIUważaj, co wklejasz do promptu, czyli o ochronie informacji w dobie generatywnej AI
Niektóre narzędzia AI domyślnie nie zapewniają poufności informacji (fot. Sanket Mishra/Pexels)

Uważaj, co wklejasz do promptu, czyli o ochronie informacji w dobie generatywnej AI

Uważaj, co wklejasz do promptu, czyli o ochronie informacji w dobie generatywnej AI

Maria Dymitruk

-

radca prawny, counsel, Olesiński i Wspólnicy

Maria Dymitruk

radca prawny, counsel, Olesiński i Wspólnicy

Daniel Kula

-

OW Legal, Olesiński i Wspólnicy

Daniel Kula

OW Legal, Olesiński i Wspólnicy

Podaje się, że nawet do 11% danych firmowych oraz dotyczących klientów wklejanych przez pracowników do ChataGPT mogą stanowić dane poufne [1]. Aby zobrazować konsekwencje tego stanu rzeczy, wystarczy przypomnieć kilka przykładów.

Co się stanie, jeśli stosowane przez nas narzędzie generatywnej sztucznej inteligencji nie zapewni poufności danych wpisywanych przez nas do promptu? Co jeśli będzie je przetwarzało chociażby na potrzeby dalszego szkolenia modelu AI? Dodajmy, że w tym samym narzędziu będziemy pracować nad strategią reklamową klienta X. W tej sytuacji nie da się wykluczyć, że w przyszłości ktoś zapyta system o szczegóły tej strategii i otrzyma odpowiedź bazującą na informacjach z naszej konwersacji.

Obecnie możesz przeczytać
1 artykuł dziennie

Zarejestruj się bezpłatnie, aby otrzymać dostęp do

4915 artykułów, newslettera

oraz informacji handlowych m.in. o wydarzeniach branżowych, usługach czy produktach wspierających marketing.

Masz już konto? Zaloguj się

Rejestracja

Podobał Ci się artykuł?

Wesprzyj naszych redaktorów i dziennikarzy, stawiając dużą czarną.


Postaw mi kawę na buycoffee.to