Πώς να σταματήσετε τα δεδομένα σας από το να χρησιμοποιούνται για την εκπαίδευση AI

Περίληψη άρθρου:
Η εκπαίδευση των εργαλείων τεχνητής νοημοσύνης βασίζεται σε τεράστιες ποσότητες δεδομένων που έχουν συλλεχθεί από το διαδίκτυο, συχνά χωρίς τη συναίνεση των χρηστών. Παρόλο που ορισμένες εταιρείες επιτρέπουν την εξαίρεση των χρηστών, οι διαδικασίες εξαίρεσης είναι περίπλοκες ή ελάχιστα δημοσιοποιημένες. Ορισμένες εταιρείες, όπως η Adobe και η Google, επιτρέπουν στους χρήστες να απενεργοποιήσουν τη χρήση των δεδομένων τους για την εκπαίδευση AI, ενώ άλλες, όπως η Meta, δεν προσφέρουν αυτήν την επιλογή. Κάποια εργαλεία, όπως το "Have I Been Trained?" επιτρέπουν στους καλλιτέχνες να προστατεύσουν τις εικόνες τους από τη χρήση σε μοντέλα AI. Παρά τις μικρές προόδους, τα νομικά και τεχνικά εμπόδια καθιστούν την εξάλειψη των δεδομένων από την εκπαίδευση AI δύσκολη, με τις εταιρείες να εφαρμόζουν συνήθως διαδικασίες εξαίρεσης που απαιτούν ενεργές ενέργειες από τους χρήστες.
Κύρια σημεία του άρθρου:
- Κάθε τι που δημοσιεύετε στο διαδίκτυο μπορεί να έχει χρησιμοποιηθεί για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης.
- Κάποιες εταιρείες επιτρέπουν στους χρήστες να εξαιρεθούν από τη χρήση των δεδομένων τους για εκπαιδευτικούς σκοπούς AI.
- Ορισμένες εταιρείες κάνουν δύσκολη τη διαδικασία εξαιρέσεως και δεν δημοσιοποιούν τη χρήση των δεδομένων.
- Παρόλο που υπάρχουν νομικές προκλήσεις, ορισμένοι χρήστες μπορούν να ελέγξουν μερικώς τη χρήση των δεδομένων τους.
- Ορισμένα παραδείγματα εταιρειών με επιλογές εξαίρεσης περιλαμβάνουν τις Adobe, Amazon, Figma, Google, Grammarly και άλλες.
Αναλυτικά το άρθρο:
Κάποιες εταιρείες σας επιτρέπουν να επιλέξετε να μην χρησιμοποιούνται τα δεδομένα σας για εκπαίδευση γενετικών μοντέλων AI και άλλων εργαλείων. Ακολουθούν τρόποι για να ανακτήσετε (έστω και λίγη) από την ιδιωτικότητα σας από εργαλεία όπως το ChatGPT, το Google Gemini, και άλλα.
Οτιδήποτε έχετε δημοσιεύσει στο διαδίκτυο — ένα αστείο tweet, ένα παλιό άρθρο σε blog, μια κριτική σε εστιατόριο ή μια θολή selfie στο Instagram — πιθανότατα έχει χρησιμοποιηθεί ως εκπαιδευτικό υλικό για την τρέχουσα τάση των γενετικών μοντέλων AI. Τα εργαλεία μεγάλων γλωσσικών μοντέλων, όπως το ChatGPT, και οι δημιουργοί εικόνας, βασίζονται σε τεράστιες ποσότητες δεδομένων μας. Ακόμη και αν δεν συμβάλλουν στη δημιουργία ενός chatbot ή άλλου εργαλείου γενετικής τεχνητής νοημοσύνης, τα δεδομένα που έχετε αποθηκεύσει στους διακομιστές του διαδικτύου μπορεί να χρησιμοποιούνται για άλλες λειτουργίες μηχανικής μάθησης.
Οι εταιρείες τεχνολογίας έχουν συλλέξει τεράστιες ποσότητες δεδομένων από τον ιστό για να συγκεντρώσουν τα δεδομένα που ισχυρίζονται ότι χρειάζονται για τη δημιουργία γενετικής τεχνητής νοημοσύνης — συχνά χωρίς να ενδιαφέρονται για τους δημιουργούς του περιεχομένου, τη νομοθεσία περί πνευματικής ιδιοκτησίας ή την προστασία της ιδιωτικότητας. Επιπλέον, οι εταιρείες που διαθέτουν δεδομένα από εκατομμύρια δημοσιεύσεις επιδιώκουν να εκμεταλλευτούν την τάση του AI πουλώντας ή παραχωρώντας την πληροφορία.
Υπάρχουν Περιορισμοί
Πριν φτάσουμε στο πώς μπορείτε να επιλέξετε να μην συμμετέχετε, αξίζει να έχετε ρεαλιστικές προσδοκίες. Πολλές εταιρείες που κατασκευάζουν AI έχουν ήδη αντλήσει δεδομένα από το διαδίκτυο, επομένως ό,τι έχετε δημοσιεύσει είναι πιθανό να βρίσκεται ήδη στα συστήματά τους. Οι εταιρείες AI τείνουν να είναι ασαφείς σχετικά με το τι έχουν συλλέξει, αγοράσει ή χρησιμοποιήσει για την εκπαίδευση των συστημάτων τους.
Εταιρείες όπως η Meta, η Google και άλλες έχουν ενσωματώσει στην πολιτική απορρήτου τους ότι ενδέχεται να χρησιμοποιούν τα δεδομένα σας για εκπαίδευση AI. Αν και υπάρχουν τεχνικοί τρόποι αφαίρεσης δεδομένων από τα συστήματα AI, οι επιλογές αυτές μπορεί να είναι περίπλοκες ή χρονοβόρες, και συχνά είναι δύσκολες στην πρόσβαση.
Πώς να επιλέξετε να μην συμμετέχετε στην εκπαίδευση AI
Παρακάτω είναι ορισμένες δημοφιλείς πλατφόρμες και οδηγίες για το πώς να επιλέξετε να μην χρησιμοποιούνται τα δεδομένα σας:
- Adobe: Εάν αποθηκεύετε τα αρχεία σας στο Adobe Creative Cloud, η εταιρεία μπορεί να τα αναλύσει για βελτιώσεις του λογισμικού, αλλά όχι για εκπαίδευση γενετικών μοντέλων AI. Η εξαίρεση είναι αν δημοσιεύετε αρχεία στο Adobe Stock. Για εξαίρεση, ανοίξτε τη σελίδα απορρήτου της Adobe και απενεργοποιήστε την επιλογή ανάλυσης περιεχομένου για βελτίωση προϊόντος.
- Amazon AWS: Οι υπηρεσίες AI του Amazon Web Services μπορούν να χρησιμοποιούν δεδομένα πελατών για βελτίωση εργαλείων, αλλά μπορείτε να εξαιρεθείτε μέσω των ρυθμίσεων της πλατφόρμας. Δείτε αναλυτικές οδηγίες στη σελίδα υποστήριξης της Amazon.
- Google Gemini: Οι συνομιλίες στον συνομιλητή Gemini ενδέχεται να επιλέγονται για ανθρώπινη ανασκόπηση για βελτίωση του AI μοντέλου. Για να εξαιρεθείτε, ανοίξτε το Gemini, πηγαίνετε στο “Activity” και επιλέξτε να απενεργοποιήσετε την δραστηριότητα της εφαρμογής Gemini. Αυτή η επιλογή διασφαλίζει ότι μελλοντικές συνομιλίες δεν θα χρησιμοποιούνται για ανασκόπηση, αν και τα δεδομένα μπορεί να παραμείνουν για 3 χρόνια.
- LinkedIn: Μπορείτε να επιλέξετε να μην χρησιμοποιούνται οι αναρτήσεις σας για εκπαίδευση AI, πηγαίνοντας στο προφίλ σας, ανοίγοντας τις ρυθμίσεις και απενεργοποιώντας τη χρήση των δεδομένων για εκπαίδευση.
- OpenAI ChatGPT και Dall-E: Το OpenAI προσφέρει επιλογές για το τι συμβαίνει με όσα λέτε στον ChatGPT. Για εξαίρεση, μεταβείτε στις ρυθμίσεις, στη συνέχεια στο “Data Controls” και απενεργοποιήστε την επιλογή “Improve the model for everyone.” Για την εξαίρεση εικόνων στο Dall-E, υπάρχει ειδική φόρμα υποβολής αιτημάτων για αφαίρεση από τα δεδομένα εκπαίδευσης.
- Squarespace: Το Squarespace σας επιτρέπει να αποκλείσετε τους crawlers AI μέσω της ενημέρωσης του αρχείου robots.txt. Ανοίξτε τις ρυθμίσεις του λογαριασμού σας, βρείτε την επιλογή “Crawlers” και επιλέξτε να αποκλείσετε τα γνωστά AI crawlers.
- Substack: Για τους δημιουργούς περιεχομένου στο Substack, η πλατφόρμα παρέχει επιλογή αποκλεισμού των AI bots από την ανάλυση των δημοσιεύσεών τους. Πηγαίνετε στις ρυθμίσεις και ενεργοποιήστε την επιλογή αποκλεισμού εκπαίδευσης AI.
Αυτά είναι μόνο μερικά παραδείγματα εταιρειών που επιτρέπουν κάποιου τύπου έλεγχο. Παρόλο που οι επιλογές είναι περιορισμένες, η εξοικείωση με αυτές τις δυνατότητες μπορεί να προσφέρει στους χρήστες έστω και μια μικρή δυνατότητα προστασίας των δεδομένων τους από την εκπαίδευση μοντέλων AI.
