Science & Technology
← Home
Σοκ με Copilot: Αποκάλυψε μυστικά email της Microsoft!

Σοκ με Copilot: Αποκάλυψε μυστικά email της Microsoft!

2026-03-22T09:28:15.404295+00:00

Σφάλμα στο Copilot της Microsoft: Απειλή στην Απόρρητη Αλληλογραφία

Γεια σας φίλοι της τεχνολογίας! Έχετε μάθει για το πρόβλημα με το Microsoft 365 Copilot; Αν το χρησιμοποιείτε στη δουλειά, καλύτερα να προσέξετε. Ένα σφάλμα κάνει το AI να συνοψίζει απόρρητα email, αγνοώντας τους κανόνες προστασίας. Ας δούμε τι παίζει, γιατί έχει σημασία και τι κάνει η Microsoft.

Τι Συμβαίνει Ακριβώς;

Από τα τέλη Ιανουαρίου, ένα bug στο "work tab" του Copilot διαβάζει και συνοψίζει email από τα φακέλους Απεσταλμένα και Προσχέδια. Συνήθως, οι εταιρείες βασίζονται σε πολιτικές DLP και ετικέτες εμπιστευτικότητας για να μπλοκάρουν την πρόσβαση σε ευαίσθητα δεδομένα. Αυτά λειτουργούν σαν ψηφιακά "απαγορεύεται η είσοδος". Το σφάλμα CW1226324 τα παραβλέπει όλα και επεξεργάζεται απαγορευμένα μηνύματα.

Φανταστείτε να γράφετε ένα μυστικό email ή να το στέλνετε, και ξαφνικά το AI το συνοψίζει χωρίς άδεια. Αυτό γίνεται εδώ και καιρό, και οι επιχειρήσεις που εμπιστεύονται το Microsoft 365 τρέμουν.

Πώς Λειτουργεί το Copilot;

Το Copilot είναι AI βοηθός για παραγωγικότητα. Κυκλοφόρησε τον Σεπτέμβριο του 2023 για επαγγελματίες πελάτες. Συνδέεται με Word, Excel, PowerPoint, Outlook και OneNote. Σου γράφει κείμενα, αναλύει δεδομένα, συνοψίζει συζητήσεις. Το "work tab" δουλεύει με επαγγελματικά αρχεία – γι' αυτό το bug είναι επικίνδυνο, αφού μπαίνει όπου δεν πρέπει.

Η Microsoft το παραδέχτηκε: "Τα email με ετικέτα εμπιστευτικότητας επεξεργάζονται λάθος από το Copilot chat". Λάθος στον κώδικα, και τέλος.

Η Αντίδραση της Microsoft: Διόρθωση Υπό Έλεγχο

Καλές ειδήσεις: Βρήκαν το πρόβλημα στις 21 Ιανουαρίου και ξεκίνησαν διόρθωση στις αρχές Φεβρουαρίου. Παρακολουθούν την ενημέρωση και ενημερώνουν κάποιους χρήστες. Δεν έχουν πει πότε τελειώνει ούτε πόσοι επηρεάστηκαν.

Το χαρακτηρίζουν "συμβουλευτικό" ζήτημα – περιορισμένη έκταση. Αλλά μπορεί να αλλάξει με νέα δεδομένα. Μένουμε σε εγρήγορση.

Γιατί να σας Νοιάζει;

Αν χρησιμοποιείτε Microsoft 365 στη δουλειά, αυτό είναι συναγερμός. Η ιδιωτικότητα δεν είναι μόδα, προστατεύει μυστικά, πελάτες, εσωτερικά νέα. Όταν το AI παραβιάζει ελέγχους, κινδυνεύουν δεδομένα – ακόμα και τυχαία.

Δείχνει και μεγαλύτερο πρόβλημα: AI και ασφάλεια. Βιάζονται να βάλουν AI παντού, αλλά λάθη συμβαίνουν. Οι άνθρωποι κωδικοποιούν, και οι άνθρωποι σφάλλουν.

Τι Μπορείτε να Κάνετε;

Μέχρι να φτιαχτεί:

  • Ελέγξτε Ετικέτες: Βεβαιωθείτε ότι τα απόρρητα email έχουν σωστές ετικέτες και ενεργές DLP.
  • Περιορίστε Πρόσβαση: Μπλοκάρετε το Copilot από συγκεκριμένους φακέλους ή απενεργοποιήστε το chat προσωρινά.
  • Μείνετε Ενημερωμένοι: Ακολουθήστε τις ανακοινώσεις της Microsoft. Μπορεί να σας προσεγγίσουν.

Το Μεγαλύτερο Στίγμα

Δεν είναι απλά ένα bug, είναι θέμα εμπιστοσύνης στα AI. Όσο μπαίνουν βαθιά στη δουλειά μας, πρέπει να σέβονται τα όρια. Η Microsoft διορθώνει γρήγορα συνήθως, αλλά τέτοια περιστατικά ταράζουν εταιρείες με ευαίσθητα δεδομένα.

Εσείς τι λέτε; Σας έχει τυπώσει AI σαν το Copilot; Σχολιάστε από κάτω! Αν σας φάνηκε χρήσιμο, μοιραστείτε το. Συνεχίζουμε για τεχνολογία και ιδιωτικότητα.

Πηγή: BleepingComputer

#microsoft copilot #ai privacy #data security #microsoft 365 #tech bugs