Bug în Microsoft Copilot: AI-ul a rezumat emailuri confidențiale

0
7
bug-in-microsoft-copilot:-ai-ul-a-rezumat-emailuri-confidentiale,-desi-trebuia-sa-le-ignore
Bug în Microsoft Copilot: AI-ul a rezumat emailuri confidențiale, deși trebuia să le ignore

Microsoft a confirmat existența unui bug în Microsoft 365 Copilot, care a permis asistentului AI să rezume emailuri confidențiale încă de la finalul lunii ianuarie, încălcând politicile de prevenire a pierderii datelor (DLP). Problema a fost detectată printr-o alertă de serviciu și afectează funcționalitatea de chat din fila „work tab” a Copilot, consultată de utilizatori. Microsoft a început distribuirea unui fix în primele zile ale lunii februarie și monitorizează în continuare implementarea remedierii.

Detalii despre incident

Incidentul a fost identificat pe 21 ianuarie și a fost activ din sfârșitul aceleiași luni. Bugul a permis citirea și sumarizarea emailurilor din folderele Sent Items și Drafts, inclusiv mesaje cu etichetări de confidențialitate și cu politici DLP configurate. Aceste foldere sunt utilizate frecvent pentru conținut sensibil, precum propuneri comerciale, drafturi de contracte, discuții interne sau informații despre clienți.

Emailurile afectate aveau marcaje de confidențialitate și politici DLP active, dar, în ciuda restricțiilor, rezumarea a fost realizată. Acest lucru a însemnat că, în mod normal, aceste etichete și politici ar trebui să limiteze accesul și procesarea automată a conținutului, însă, în acest caz, mecanismele de protecție nu au reușit să funcționeze.

Microsoft a declarat că situația are un impact considerat limitat, fiind codificată ca „advisory”. Compania nu a comunicat exact câți utilizatori sau câte organizații au fost afectate și nici un termen clar pentru finalizarea remedierii totale, menționând că amploarea incidentului poate varia în funcție de rezultatele investigației.

Implicații pentru organizații

Folosirea AI în instrumente de productivitate, precum Copilot, crește riscul unor scăpări de informații sensibile, mai ales dacă politicile interne de securitate și protecție a datelor nu sunt adaptate pentru noile tehnologii. Rezumarea automată automatizează procesul, dar dacă această funcție interferează cu marcaje de confidențialitate sau politici DLP, pot apărea probleme de conformitate și riscuri legale.

Chiar dacă un email cu etichetă de confidențialitate nu a fost trimis sau partajat, procesarea și vizibilitatea conținutului în timpul rezumatului pot încălca politici interne, cerințe de audit sau obligații contractuale. Este de aceea important ca organizațiile să verifice dacă, în utilizarea de câmpuri de chat sau alte funcționalități, conținutul sensibil a fost accidental procesat sau expus.

Ce trebuie verificat imediat

Persoanele responsabile din companii trebuie să examineze dacă au existat interacțiuni în Copilot Chat cu emailuri marcate ca „Confidential” sau echivalent. Se verifică dacă rezumatele au fost vizibile doar pentru utilizatorul respectiv sau dacă au fost accesibile și altor persoane. De asemenea, trebuie consultate logurile pentru a identifica dacă s-a produs procesarea unor mesaje care, conform politicilor, trebuiau excluse.

Este recomandată izolarea funcției afectate, dacă posibil, până la completarea remediului. Totodată, trebuie verificată dacă există dovezi clare de procesare a unor emailuri sensibile în sistem, pentru a evalua impactul real asupra datelor companiei.

Recomandări pentru organizații

Organizațiile ar trebui să trateze incidentul ca pe o oportunitate de consolidare a controalelor de securitate și guvernanță a datelor. Se recomandă identificarea rapidă a utilizatorilor cu acces la Copilot Chat în zonele critice și verificarea dacă politicile DLP sunt aplicate corespunzător pe folderele vizate.

Este esențial să se monitorizeze dacă există incidente de vizualizare sau procesare a emailurilor sensibile. În caz de incertitudine, se pot restricționa temporar funcțiile de AI sau procesarea automată despre care se suspectează că au fost afectate, și se comunică echipei despre riscuri și pașii de urmat.

Organizațiile trebuie să evite utilizarea excesivă a folderelor Drafts pentru conținut sensibil și să limiteze păstrarea datelor pe email pe termen nedorit. Este recomandat să se adopte practici clare pentru gestionarea conținutului intern, pentru a reduce vulnerabilitățile.

Impactul asupra politicilor de securitate

Incidentul evidențiază că politicile de confidențialitate și DLP sunt eficiente doar dacă sunt implementate și actualizate în toate componentele tehnologice. În cazul integrării AI, suprafața de atac se extinde, iar validarea proceselor trebuie să fie completă de la început până la final.

Folosirea AI în mediul de muncă necesită o reanalizată a controalelor de securitate, verificarea fluxurilor de date și educarea personalului pentru a înțelege riscurile legate de confidențialitate. Întărirea politicilor și revizuirea proceselor de control devin obligatorii pentru a minimiza orice impact al unor eventuale erori sau scăpări similare în viitor.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.