Automatyzacje i AI dla firm

Bezpieczeństwo danych w AI - o co klienci najczęściej pytają

Wokół AI i bezpieczeństwa danych narosło sporo mitów, a wiele firm nadal nie wie, kiedy ryzyko jest realne, a kiedy praktycznie zerowe. W tym artykule pokazuję, jak wygląda praca na danych w popularnych narzędziach (ChatGPT, Gemini, Claude, Copilot), czym różnią się wersje darmowe od biznesowych, co oznaczają opt-in i opt-out oraz jak podejść do AI tak, żeby korzystać z niej śmiało, ale odpowiedzialnie - bez naruszania poufności i bez stresu o RODO.

u2844336958 A modern server room in a mid-size company rows of abf0f47a-ddf2-406f-b25c-cf6d8e02d480
Damian Tokarczyk
8 minut czytania

Wielu właścicieli firm ma dziś podobne zagwozdki do rozwiązania: „AI jest świetne, ale czy to nie wyciągnie moich danych na zewnątrz?”. I szczerze - to zdrowa ostrożność. Tyle że w praktyce temat jest dużo mniej straszny, niż się wydaje na pierwszy rzut oka. Zwłaszcza jeśli korzystasz z narzędzi w wersjach firmowych, a nie darmowych kont konsumenckich.

Poniżej rozkładam ten problem po ludzku: co naprawdę dzieje się z danymi, kiedy używasz AI, kiedy ryzyko jest realne, a kiedy praktycznie pomijalne. I co możesz zrobić, żeby spać spokojnie.

AI a „wyciek danych” - skąd ten strach?

AI działa na tekstach, plikach, kodzie, mailach… czyli dokładnie na tym, co w firmie bywa poufne. Więc naturalnie pojawia się obawa: „jak wyślę do modelu umowę albo raport, to czy on to potem zapamięta i odda komuś innemu?”.

W wersjach darmowych odpowiedź brzmi: czasem tak - bo część dostawców może wykorzystywać takie dane do ulepszania modeli.

W wersjach płatnych/enterprise odpowiedź brzmi: z reguły nie. I to z dwóch powodów:

  • duzi dostawcy (Google, Microsoft, OpenAI, Anthropic) podpisują umownie, że dane klientów biznesowych nie idą na trening modeli bazowych,

  • te plany mają osobne reżimy prywatności, DPA, kontrolę retencji itd.

Krótko: AI w planie firmowym zachowuje się pod względem danych podobnie jak Google Workspace czy Microsoft 365. A z nich przecież korzystamy masowo od lat.

„Przecież i tak trzymamy dane w chmurze…”

To jest argument, który często zmienia perspektywę.

Większość firm ma dziś:

  • pocztę w Google lub Microsoft,

  • dokumenty w Drive/SharePoint,

  • pliki na OneDrive,

  • kalendarze i czaty w chmurze.

Czyli już teraz powierzamy tym firmom ogromną część wiedzy firmy. Traktujemy to jako standard: wygodny, bezpieczny, akceptowalny biznesowo.

Z tego punktu widzenia użycie AI od tych samych dostawców nie wprowadza automatycznie nowego rodzaju ryzyka. To nadal ten sam ekosystem, tyle że z nową funkcją.

OK, ale czy moje prompty trenują model?

To najczęstsze pytanie. I słusznie, bo odpowiedź zależy od narzędzia i planu.

Google Gemini

W EOG Google robi jasny podział na „paid services” i resztę. Jeśli masz podpięty billing (nawet w ramach darmowego limitu), to Gemini API i AI Studio działają jako usługi płatne, a wtedy Google deklaruje brak treningu na promptach i odpowiedziach. Podobnie w Gemini for Workspace/Cloud/Code Assist.

OpenAI (ChatGPT i API)

W API oraz w planach ChatGPT Business / Enterprise / Edu dane są poza treningiem domyślnie. Trening może być tylko wtedy, gdy klient wyrazi na to zgodę. Dane mogą być krótko przechowywane do celów bezpieczeństwa.

W zwykłym, darmowym ChatGPT trening jest domyślny - ale można go wyłączyć w ustawieniach.

Anthropic Claude

Tu wydarzyła się największa zmiana w 2025 roku. Anthropic wprowadził trening na danych konsumenckich (Free/Pro/Max, Claude Code), jeśli użytkownik nie zrobi opt-out (wyłączenie zgody w ustawieniach). Retencja w tej wersji może sięgnąć kilku lat.

Za to w wersjach biznesowych i w API trening na promptach klientów jest standardowo wyłączony.

Microsoft / GitHub Copilot

Copilot Business/Enterprise działa w trybie enterprise data protection: kod z prywatnych repozytoriów, prompty i odpowiedzi nie są używane do trenowania modeli bazowych. Przetwarzane są tylko po to, żeby dać sugestię i utrzymać usługę (plus telemetria).

Wniosek prosty jak faktura: jeśli temat danych Cię obchodzi, używaj wersji firmowych. Wersja darmowa ≠ wersja biznesowa.

Opt-in vs opt-out - mały szczegół, duża różnica

Warto rozumieć dwa modele zgody:

  • Opt-in: dostawca nie używa danych do treningu, dopóki Ty wyraźnie tego nie włączysz.

  • Opt-out: dane są domyślnie włączone do treningu, a Ty musisz sam to wyłączyć.

Z punktu widzenia firmy opt-in jest bezpieczniejszy, bo „chroni z automatu”. Opt-out wymaga świadomości i kliknięcia w ustawienia.

Co dokładnie dzieje się z danymi po wysłaniu promptu?

Tu wchodzimy w praktykę: retencja, logi, dostęp ludzi. I znowu - kluczowa różnica to wersja konsumencka vs komercyjna.

Gemini

W planach paid/enterprise prompty i odpowiedzi są logowane krótko tylko po to, żeby wykrywać nadużycia i spełnić wymogi prawne. Nie idą na trening.

W wersji konsumenckiej rozmowy mogą być zapisywane w aktywności konta Google i czasem trafiają do human review (zależnie od ustawień).

OpenAI

API i plany Business/Enterprise/Edu mają przewidywalny reżim: brak treningu + retencja operacyjna do ok. 30 dni (chyba że masz umowę zero-retention).

W ChatGPT konsumenckim rozmowy siedzą w historii konta - i mogą służyć ulepszaniu modeli, jeśli nie wyłączysz treningu.

Claude

W konsumenckim Claude po zmianach z 2025 roku domyślna retencja jest bardzo długa, a trening możliwy bez opt-out.

W API/Work retencja jest krótka i dane nie są trenowane.

Copilot

Copilot Business/Enterprise to najbardziej „na żywo” działający model: prompt jest przetworzony do sugestii i nie jest przechowywany jako treść. Zostaje telemetria użycia, ale nie Twój kod.

Jednozdaniowe podsumowanie:

Plan firmowy/API = przetwarzanie do odpowiedzi + krótkie logi bezpieczeństwa, bez treningu.

Plan konsumencki = dłuższa historia, czasem human review, czasem trening.

A co z RODO? Czy mogę wrzucać dane osobowe?

Możesz, ale musisz to robić mądrze.

W wersjach biznesowych/API zwykle wygląda to tak:

  • Ty jesteś administratorem danych,

  • dostawca AI jest procesorem,

  • masz DPA (umowę powierzenia),

  • dane nie są trenowane,

  • retencja jest ograniczona.

Czyli to ten sam schemat, co w typowej chmurze biurowej.

Praktyczna checklista RODO przy AI:

  • masz podstawę prawną,

  • masz DPA z dostawcą,

  • minimalizujesz dane (nie wysyłasz zbędnych danych),

  • ogarniasz transfery poza EOG (SCC/DPF, region EU jeśli dostępny),

  • robisz DPIA, jeśli dane są wrażliwe lub skala duża.

A czego unikać? Wrzucania danych osobowych do darmowych czatów konsumenckich - szczególnie tam, gdzie trening jest opt-out i retencja długa.

Gdzie są moje dane: UE czy USA?

To pytanie coraz częściej pada w firmach, które mają klientów z większymi wymaganiami.

Tu ważne rozróżnienie: data residency (gdzie dane leżą zapisane) vs data processing (gdzie fizycznie wykonywane są obliczenia).

OpenAI

Od 2025 roku oferuje EU Data Residency. W API możesz tworzyć projekty w regionie Europe, a w Enterprise/Edu ustawiać przechowywanie rozmów i plików w UE. To dziś najbardziej jednoznaczna opcja „UE-only”, jeśli jej potrzebujesz.

Gemini

W enterprise możesz ustawić przechowywanie danych w UE, ale przetwarzanie może być globalne (zależnie od endpointu i routingu).

Claude

Anthropic otwarcie mówi o globalnym routingu. Nie ma gwarancji UE-only compute.

Copilot

GitHub Copilot nie daje twardego SLA na UE-only przetwarzanie.

Za to Microsoft 365 Copilot działa w ramach EU Data Boundary (dla usług objętych boundary), więc tu gwarancje UE są najsilniejsze w świecie biurowym.

Co z tego wynika dla Ciebie?

Jeśli chcesz używać AI bez stresu o dane, to w 90% przypadków wystarczy zdrowy rozsądek i kilka prostych zasad:

  • Używaj wersji biznesowych/API zamiast darmowych kont konsumenckich.

  • Sprawdź politykę treningu i retencji konkretnego planu (nie przypuszczaj, że każda wersja jest taka sama).

  • Zrób porządek w dostępie do danych w Google Workspace / M365 - AI dziedziczy te uprawnienia.

  • Ustal zasady użycia AI w firmie i przeszkol ludzi (prosto, praktycznie, bez straszenia).

  • Dla danych naprawdę wrażliwych: anonimizacja albo modele lokalne/hybrydowe.

A jeśli ktoś nie chce wysyłać danych nigdzie?

Też się da.

Jeśli Twoja firma musi zachować pełną tajemnicę danych, albo po prostu wolisz mieć wszystko u siebie, to są lokalne modele AI uruchamiane na własnej infrastrukturze. Jasne, zwykle nie są tak duże jak modele Big Techów, ale w wielu zadaniach robią robotę świetnie: analiza dokumentów, klasyfikacja treści, wyszukiwanie wiedzy, automatyzacja procesów.

Efekt jest taki, że możesz budować „inteligentne funkcje” w firmie bez wypuszczania danych poza swoje serwery.

Punkt końcowy

AI nie jest z definicji ryzykiem dla danych. Ryzykiem jest zły wybór planu i brak zasad.

Jeśli korzystasz z wersji firmowych, masz DPA, rozumiesz retencję i ustawiasz proste reguły gry, to bezpieczeństwo danych w AI wygląda dokładnie tak, jak bezpieczeństwo danych w chmurze, z której już korzystasz.

A jeśli potrzebujesz pełnej izolacji - są modele lokalne.


Jeśli chcesz wdrożyć AI w firmie bez chaosu, ryzyk prawnych i „dzikich” eksperymentów pracowników na darmowych narzędziach, mogę Ci w tym pomóc. W Kodiwo biorę na warsztat Twoje procesy, dane i realne potrzeby, a potem układam z tego sensowną strategię użycia AI: co warto automatyzować, gdzie AI da szybki zwrot, jakie narzędzia wybrać, jak zabezpieczyć dane i jak ustawić proste zasady korzystania dla zespołu. Bez korpomowy, za to z konkretem, który da się wdrożyć.

Napisz do mnie, jeśli chcesz mieć AI pod kontrolą - tak, żeby wspierało biznes, a nie dodawało ryzyk. Zrobimy szybki przegląd sytuacji, ustalimy priorytety i zaplanujemy wdrożenie krok po kroku.

Damian Tokarczyk

Umawianie bezpłatnej konsultacji i wyceny

Damian Tokarczyk

Na 30 minutowym spotkaniu: omówimy Twój pomysł, wyzwania i kolejne kroki. Po rozmowie wyjdziesz z konkretami:

  • świeżym, zewnętrznym spojrzeniem na Twoje wyzwania i priorytety,
  • wstępną analizą projektu i możliwych rozwiązań,
  • orientacyjnymi kosztami oraz propozycją dalszych kroków.

Bez zobowiązań - za to z jasnym obrazem, co warto zrobić dalej.

Wybierz termin konsultacji