top of page

Adatvédelmi rés a ChatGPT-ben: érzékeny dokumentumok kerülhettek nyilvánosságra

  • Writer: Z3BRA STUDIO
    Z3BRA STUDIO
  • Aug 7
  • 2 min read
ChatGPT biztonsági rés érzékeny dokumentumokat szivárogtathat ki
Image by Cybernews

Egy újabb, komoly adatvédelmi aggály merült fel az OpenAI ChatGPT körül: a CyberNews vizsgálata szerint a mesterséges intelligencia által generált „megosztható linkek” funkciójával olyan tartalmak is nyilvánosságra kerülhettek, amelyeket eredetileg privátnak szántak. A rés leginkább céges dokumentumokat, belső prezentációkat és bizalmas anyagokat érinthetett.


ChatGPT biztonsági rés érzékeny dokumentumokat szivárogtathat ki
Image from Cybernews

Mi történt pontosan?

A ChatGPT egyik kényelmi funkciója lehetővé teszi, hogy a felhasználók az általuk létrehozott beszélgetéseket egyetlen link segítségével megosszák másokkal. A gond csak az, hogy ezek a linkek – amennyiben valaki tudja a pontos formátumukat – automatizált eszközökkel, úgynevezett „web crawling” módszerekkel is felfedezhetők.


A CyberNews kutatói ilyen módszerrel több száz linket találtak, amelyek között érzékeny információk is szerepeltek:

  • belső céges stratégiák

  • alkalmazotti adatbázis-részletek

  • fejlesztési dokumentumok

  • ügyfélkommunikációk

Ez azért is különösen aggasztó, mert ezek az anyagok nemcsak üzleti titkokat, hanem akár személyes adatokat is tartalmazhattak, ami sértheti az adatvédelmi törvényeket (pl. GDPR).

Miért veszélyes ez?

A legtöbb felhasználó valószínűleg nincs tudatában annak, hogy az ilyen linkek nincsenek megfelelően titkosítva vagy védve. Bár technikailag „nem listázott” linkekről van szó (azaz nem szerepelnek keresőmotorokban), ha valaki kitalálja a linkformátumot vagy adatgyűjtő botokat használ, könnyedén hozzáférhet ezekhez.

Ráadásul a megosztott tartalom sok esetben magáncégektől, kormányzati szereplőktől vagy oktatási intézményektől származik – ami azt jelenti, hogy a bizalmas dokumentumok egy része jogosulatlan kezekbe kerülhetett.

Mit reagált az OpenAI?

A CyberNews jelentése után az OpenAI nem adott hivatalos választ azonnal, de több szakértő is azt javasolja, hogy:

  • ne használjunk megosztható linkeket érzékeny tartalmakhoz,

  • a ChatGPT-t belső céges környezetben csak korlátozott módon, kontrollált hozzáféréssel alkalmazzuk,

  • és fokozott adatvédelmi tudatosságra van szükség minden felhasználó részéről.

Tanulság: a kényelem ára az adatbiztonság lehet

Ez az eset is emlékeztet bennünket arra, hogy a mesterséges intelligencia eszközeinek használata során nem szabad megfeledkeznünk az alapvető adatbiztonsági elvekről. A digitális világban egyetlen óvatlan megosztás is komoly következményekkel járhat – különösen, ha automatizált eszközökkel szinte bármi „levadászható”.


Tipp felhasználóknak:

  • Ne ossz meg érzékeny beszélgetést link formájában!

  • Használj inkább PDF exportot vagy más biztonságos csatornát.

  • Ellenőrizd a megosztásaidat rendszeresen, és töröld a feleslegessé vált linkeket.

Comments


bottom of page