11 Νοεμβρίου 2025

Anthropic: θα χρησιμοποιεί νέες συνομιλίες Claude για εκπαίδευση — πώς κάνεις opt-out

Περίληψη

Η Anthropic ενημερώνει την πολιτική απορρήτου της στις 8 Οκτωβρίου 2025 ώστε να μπορεί να χρησιμοποιεί νέες συνομιλίες και εργασίες κώδικα στο Claude για εκπαίδευση μοντέλων, εκτός αν ο χρήστης κάνει opt-out. Το προεπιλεγμένο toggle είναι ενεργό. Παράλληλα, επεκτείνεται η περίοδος διατήρησης δεδομένων από 30 ημέρες σε 5 χρόνια. Οι εταιρικοί/κυβερνητικοί/εκπαιδευτικοί πελάτες εξαιρούνται.

Κύρια σημεία

  • Έναρξη πολιτικής: 8 Οκτωβρίου 2025 (μετάθεση από 28 Σεπτεμβρίου).
  • Default: Συμμετοχή by default· απαιτείται opt-out από τον χρήστη.
  • Ποιους αφορά: Τυπικοί λογαριασμοί (free & paid). Δεν ισχύει για enterprise/government/education άδειες.
  • Τι δεδομένα: ΝΕΕΣ συνομιλίες/κώδικας· τα παλιά δεν χρησιμοποιούνται εκτός αν τα ανοίξεις ξανά (τότε γίνονται επιλέξιμα).
  • Διατήρηση: Από 30 ημέρες → 5 έτη (ανεξάρτητα από το αν έκανες opt-out από training).
  • Γιατί αλλάζει: Η Anthropic λέει ότι οι αλληλεπιδράσεις πραγματικού κόσμου βελτιώνουν την ακρίβεια/χρησιμότητα των απαντήσεων.
  • Σύγκριση: Παρόμοιο με defaults OpenAI/Google (για προσωπικούς λογαριασμούς), όπου επίσης υπάρχει δυνατότητα opt-out.
  • ου.

Αναλυτικά

Σύμφωνα με το δημοσίευμα, η Anthropic θα αρχίσει να χρησιμοποιεί νέες συνομιλίες και coding sessions στο Claude ως δεδομένα εκπαίδευσης από τις 8/10/2025, με opt-out διαθέσιμο στις ρυθμίσεις. Προηγουμένως, η εταιρεία δεν εκπαίδευε μοντέλα σε χρήσεις συνομιλιών. Η αρχική ημερομηνία (28/9) μετατέθηκε «για να δοθεί περισσότερος χρόνος στους χρήστες» και για ομαλή τεχνική μετάβαση. Κατά την ενημέρωση όρων, εμφανίστηκε pop-up με toggle «Allow the use of your chats…» ρυθμισμένο ON ως προεπιλογή· οι χρήστες που αποδέχθηκαν χωρίς να το αλλάξουν έχουν ήδη γίνει opt-in.

Η αλλαγή καλύπτει νέα και εκ νέου ανοιγμένα νήματα: τα παλιά threads δεν εκπαιδεύουν το μοντέλο, εκτός αν ο χρήστης τα ξανανοίξει—οπότε το περιεχόμενό τους μπορεί να αξιοποιηθεί από εκεί και έπειτα. Παράλληλα, η Anthropic αυξάνει τον χρόνο διατήρησης δεδομένων από 30 ημέρες σε 5 χρόνια, ανεξάρτητα από το αν ο χρήστης επέλεξε ή όχι εκπαίδευση. Η εταιρεία δηλώνει πως τα δεδομένα πραγματικών αλληλεπιδράσεων βελτιώνουν την ακρίβεια και τη χρησιμότητα των απαντήσεων των LLMs.

Η αλλαγή δεν επηρεάζει πελάτες enterprise/κυβερνητικούς/εκπαιδευτικούς, των οποίων οι συνομιλίες δεν χρησιμοποιούνται για εκπαίδευση. Σε σύγκριση, τόσο το ChatGPT όσο και το Gemini για προσωπικούς λογαριασμούς διαθέτουν παρόμοιο default με δυνατότητα opt-out. Το άρθρο υπενθυμίζει ότι, ανεξάρτητα από τις επιλογές εντός εφαρμογών, δημόσια αναρτημένο περιεχόμενο στο διαδίκτυο είναι πιθανό να συλλεχθεί από τρίτους για εκπαίδευση μοντέλων.

Πώς κάνεις opt-out (σύμφωνα με το άρθρο):

  1. Άνοιξε Privacy Settings στο Claude.
  2. Βρες την επιλογή “Help improve Claude”.
  3. Βεβαιώσου ότι ο διακόπτης είναι OFF (απενεργοποιημένος/στραμμένος αριστερά).

 

Δείκτης Sentiment

 Μικτό/Αμφίθυμο

  • Θετικό: Διαφάνεια για επιλογή opt-out· δυνατή βελτίωση ποιότητας μοντέλων.
  • Αρνητικό: Προεπιλεγμένη συλλογή· μεγάλη περίοδος διατήρησης (5 έτη) αυξάνει ανησυχίες απορρήτ

 

Πηγή: Anthropic Will Use Claude Chats for Training Data. Here’s How to Opt Out