Περίληψη:

Παρά τις προβλέψεις για άφιξη της τεχνητής γενικής νοημοσύνης (AGI) πολύ σύντομα, οι έως τώρα εκτιμήσεις έχουν πέσει έξω. Οι σημερινοί κίνδυνοι από την τεχνητή νοημοσύνη προκύπτουν κυρίως από την κακή ή επιπόλαιη χρήση των υπαρχόντων συστημάτων.
Το 2025, το πρόβλημα δεν θα είναι τόσο η ίδια η AI που δρα αυτόνομα, αλλά πώς οι άνθρωποι τη χρησιμοποιούν—όταν δικηγόροι εξαρτώνται υπερβολικά από αναξιόπιστα chatbots, όταν κακόβουλοι χρήστες δημιουργούν παραπλανητικά deepfakes διάσημων προσώπων ή όταν εταιρείες χρησιμοποιούν δήθεν «έξυπνα» συστήματα για να λαμβάνουν κρίσιμες αποφάσεις, στερώντας από ανθρώπους ευκαιρίες.
Η αντιμετώπιση αυτών των προκλήσεων θα απαιτήσει ρυθμιστικές παρεμβάσεις, εταιρική ευθύνη και συλλογική επαγρύπνηση—είναι ένα δύσκολο έργο που γίνεται δυσκολότερο από τις παραπλανητικές και μεγαλεπήβολες φιλοδοξίες για άμεση AGI.

 

Κύρια Σημεία:

  • Προβλέψεις για AGI: Έχουν γίνει πολλές προβλέψεις για σύντομη άφιξη της AGI, αλλά οι περισσότερες ήταν ανακριβείς.
  • Πραγματικοί Κίνδυνοι Σήμερα: Οι κίνδυνοι το 2025 προέρχονται από τη χρήση της υπάρχουσας AI, όχι από την ίδια την AI που δρα αυτοβούλως.
  • Υπερβολική Εξάρτηση από Chatbots: Δικηγόροι και επαγγελματίες που βασίζονται υπερβολικά σε εργαλεία AI διαπράττουν λάθη που οδηγούν σε κυρώσεις.
  • Deepfakes και Παραπληροφόρηση: Η δημιουργία ψεύτικου περιεχομένου (βίντεο, εικόνες, ήχος) θα γίνει πιο πειστική, περιπλέκοντας τη διάκριση πραγματικότητας-ψεμάτων.
  • Εσφαλμένες Εφαρμογές AI: Εταιρείες χρησιμοποιούν εργαλεία AI ακατάλληλα, λαμβάνοντας κρίσιμες αποφάσεις (π.χ. πρόσληψη, ασφάλιση) χωρίς αξιόπιστες μεθοδολογίες.
  • Ευθύνες και Ρυθμίσεις: Η αντιμετώπιση των κινδύνων απαιτεί από επιχειρήσεις, κυβερνήσεις και κοινωνία να επιβάλουν ελέγχους, νόμους και πρακτικές, δίχως να παρασύρονται από σενάρια επιστημονικής φαντασίας.

 

Αναλυτικά:

Ο διευθύνων σύμβουλος της OpenAI, Σαμ Άλτμαν, αναμένει AGI (τεχνητή γενική νοημοσύνη)—δηλαδή AI που υπερβαίνει τον άνθρωπο στην πλειονότητα των εργασιών—γύρω στο 2027 ή 2028. Ο Έλον Μασκ προβλέπει το 2025 ή το 2026 και έχει δηλώσει ότι χάνει τον ύπνο του λόγω της απειλής του AI.

Όμως, προβλέψεις για επικείμενη AI στο ανθρώπινο επίπεδο γίνονται εδώ και πάνω από 50 χρόνια, από τις πρώτες ημέρες της AI. Αυτές οι προβλέψεις ήταν λανθασμένες—όχι μόνο χρονικά, αλλά σε βαθύτερο επίπεδο. Γνωρίζουμε πλέον ότι οι συγκεκριμένες προσεγγίσεις στην AI που είχαν κατά νου οι ειδικοί στο παρελθόν ήταν απλώς ανίκανες να φτάσουν στη νοημοσύνη ανθρώπινου επιπέδου. Παρόμοια, καθώς έχουν γίνει σαφοί οι περιορισμοί της τρέχουσας AI, η πλειονότητα των ερευνητών AI αποδέχεται την άποψη ότι απλώς η δημιουργία μεγαλύτερων και ισχυρότερων chatbots δεν θα οδηγήσει σε AGI.

Η προηγμένη AI είναι σίγουρα ένα μακροπρόθεσμο ζήτημα που οι ερευνητές θα πρέπει να μελετούν. Ωστόσο, οι κίνδυνοι της AI το 2025 θα προκύψουν από κακή χρήση, όπως συνέβη μέχρι τώρα.

Αυτές μπορεί να είναι ακούσιες κακές χρήσεις, όπως δικηγόροι που βασίζονται υπερβολικά στην AI. Μετά την κυκλοφορία του ChatGPT, για παράδειγμα, αρκετοί δικηγόροι δέχθηκαν κυρώσεις επειδή χρησιμοποίησαν AI για να δημιουργήσουν λάθος νομικά έγγραφα, προφανώς χωρίς να αντιλαμβάνονται την τάση των chatbots να «εφευρίσκουν» πράγματα. Στη Βρετανική Κολομβία, η δικηγόρος Chong Ke υποχρεώθηκε να πληρώσει έξοδα αντίδικης πλευράς όταν περιέλαβε πλαστές υποθέσεις που δημιούργησε η AI σε νομικό έγγραφο. Στη Νέα Υόρκη, οι Steven Schwartz και Peter LoDuca τιμωρήθηκαν με πρόστιμο 5.000 δολαρίων γιατί παρείχαν ψευδείς παραπομπές. Στο Κολοράντο, ο Zachariah Crabill ανεστάλη για έναν χρόνο επειδή χρησιμοποίησε φανταστικές δικαστικές υποθέσεις που δημιούργησε το ChatGPT και κατηγόρησε έναν «νομικό ασκούμενο» για το λάθος. Η λίστα μεγαλώνει γρήγορα.

Άλλες κακές χρήσεις είναι εσκεμμένες. Τον Ιανουάριο του 2024, σεξουαλικά ρητές deepfake εικόνες της Taylor Swift πλημμύρισαν τα μέσα κοινωνικής δικτύωσης. Αυτές οι εικόνες δημιουργήθηκαν χρησιμοποιώντας το εργαλείο AI “Designer” της Microsoft. Αν και η εταιρεία είχε μέτρα προστασίας για να αποφύγει τη δημιουργία εικόνων πραγματικών ατόμων, η λανθασμένη ορθογραφία του ονόματος της Swift ήταν αρκετή για να τα παρακάμψει. Η Microsoft έχει πλέον διορθώσει αυτό το σφάλμα. Αλλά η Taylor Swift είναι μόνο η κορυφή του παγόβουνου, και τα μη συναινετικά deepfakes διαδίδονται ευρέως—εν μέρει γιατί διαθέσιμα εργαλεία ανοιχτού κώδικα για τη δημιουργία deepfakes είναι δημόσια προσβάσιμα. Οι εν εξελίξει νομοθεσίες παγκοσμίως προσπαθούν να καταπολεμήσουν τα deepfakes, ελπίζοντας να μετριάσουν τη ζημιά. Μένει να φανεί αν θα είναι αποτελεσματικές.

Το 2025, θα γίνει ακόμη δυσκολότερο να ξεχωρίσουμε τι είναι αληθινό από το κατασκευασμένο. Η πιστότητα του AI-παραγόμενου ήχου, κειμένου και εικόνων είναι εντυπωσιακή, και το βίντεο ακολουθεί. Αυτό μπορεί να οδηγήσει στο "μέρισμα του ψεύτη": όσοι βρίσκονται σε θέσεις εξουσίας να αρνούνται αποδείξεις για κακή τους συμπεριφορά ισχυριζόμενοι ότι είναι ψεύτικες. Το 2023, η Tesla υποστήριξε ότι ένα βίντεο του 2016 με τον Έλον Μασκ θα μπορούσε να είναι deepfake, ως απάντηση σε ισχυρισμούς ότι ο CEO είχε υπερβάλλει για την ασφάλεια του autopilot, οδηγώντας σε ατύχημα. Ένας Ινδός πολιτικός ισχυρίστηκε ότι ηχητικά κλιπ όπου αναγνώριζε διαφθορά στο κόμμα του ήταν κατασκευασμένα (τουλάχιστον ένα από αυτά τα κλιπ επαληθεύτηκε ως αυθεντικό από έναν δημοσιογραφικό οργανισμό). Και δύο κατηγορούμενοι για τα επεισόδια της 6ης Ιανουαρίου δήλωσαν ότι τα βίντεο όπου εμφανίζονται ήταν deepfakes. Και οι δύο καταδικάστηκαν.

Παράλληλα, εταιρείες εκμεταλλεύονται τη σύγχυση του κοινού για να πουλήσουν αμφίβολα προϊόντα, χαρακτηρίζοντάς τα ως «AI». Αυτό μπορεί να πάει πολύ στραβά όταν τέτοια εργαλεία χρησιμοποιούνται για να κατηγοριοποιούν ανθρώπους και να λαμβάνουν αποφάσεις που επηρεάζουν τη ζωή τους. Η εταιρεία πρόσληψης Retorio, για παράδειγμα, ισχυρίζεται ότι η AI της προβλέπει την καταλληλότητα υποψηφίων για δουλειές με βάση βιντεοσυνεντεύξεις, αλλά μελέτη έδειξε ότι το σύστημα μπορεί να ξεγελαστεί απλώς φορώντας γυαλιά ή αλλάζοντας το φόντο με μία βιβλιοθήκη, αποκαλύπτοντας ότι βασίζεται σε επιφανειακές συσχετίσεις.

Υπάρχουν επίσης δεκάδες εφαρμογές στην υγεία, την εκπαίδευση, τα οικονομικά, τη δικαιοσύνη και την ασφάλιση, όπου η AI χρησιμοποιείται αυτή τη στιγμή για να στερεί από ανθρώπους σημαντικές ευκαιρίες ζωής. Στην Ολλανδία, η φορολογική αρχή χρησιμοποίησε έναν αλγόριθμο AI για να εντοπίσει άτομα που διέπραξαν απάτη με προνοιακά επιδόματα για παιδιά. Κατηγόρησε λανθασμένα χιλιάδες γονείς, απαιτώντας συχνά την επιστροφή δεκάδων χιλιάδων ευρώ. Η αναταραχή που προκλήθηκε οδήγησε τον Πρωθυπουργό και ολόκληρο το υπουργικό συμβούλιο σε παραίτηση.

Το 2025, περιμένουμε ότι οι κίνδυνοι από την AI δεν θα προκύψουν από την ίδια την AI που δρα αυτόνομα, αλλά από αυτό που κάνουν οι άνθρωποι μ’ αυτήν. Αυτό περιλαμβάνει περιπτώσεις όπου φαίνεται να λειτουργεί καλά και τη χρησιμοποιούμε υπερβολικά (οι δικηγόροι που χρησιμοποιούν ChatGPT), όταν λειτουργεί καλά αλλά χρησιμοποιείται κακόβουλα (μη συναινετικά deepfakes και το «μέρισμα του ψεύτη») και όταν απλώς δεν είναι κατάλληλη για τον σκοπό (στερώντας από ανθρώπους τα δικαιώματά τους). Η αντιμετώπιση αυτών των κινδύνων είναι ένα τεράστιο έργο για τις εταιρείες, τις κυβερνήσεις και την κοινωνία. Θα είναι αρκετά δύσκολο χωρίς να αποσπόμαστε από επιστημονικοφανείς ανησυχίες.

 

Πηγή: Human Misuse Will Make Artificial Intelligence More Dangerous