Η Google παραδέχεται ότι η λειτουργία ανασκόπησης αναζητήσεων της τεχνητής νοημοσύνης τα θαλάσσωσε

Περίληψη άρθρου:
Η επικεφαλής αναζήτησης της Google, Liz Reid, αναγνώρισε τις προσαρμογές που έγιναν στη νέα λειτουργία αναζήτησης τεχνητής νοημοσύνης μετά από viral screenshots λανθασμένων αποτελεσμάτων αναζήτησης. Η λειτουργία AI Overview παρήγαγε παράξενες και παραπλανητικές απαντήσεις, γεγονός που ώθησε τη Google να αντιμετωπίσει τα ζητήματα και να τονίσει τις βελτιώσεις που έγιναν. Η Reid εξήγησε ότι οι παρερμηνείες προέκυψαν λόγω των περιορισμένων πηγών για ορισμένα θέματα και του χιουμοριστικού περιεχομένου από φόρουμ. Υπερασπίστηκε τη συνολική αξία των AI Overviews παρά τις ιογενείς ατασθαλίες και τόνισε τις τεχνικές βελτιώσεις που υλοποιήθηκαν, όπως η καλύτερη ανίχνευση ερωτημάτων και η μειωμένη εξάρτηση από περιεχόμενο που δημιουργείται από χρήστες. Η Google στοχεύει στη συνεχή παρακολούθηση των ανατροφοδοτήσεων και την τελειοποίηση των χαρακτηριστικών για βελτιωμένη εμπειρία των χρηστών, παρά κάποια ψεύτικα στιγμιότυπα οθόνης που κυκλοφορούν στο διαδίκτυο.
Κύρια σημεία του άρθρου:
- Η Liz Reid, επικεφαλής του τμήματος αναζήτησης της Google, αναγνώρισε και αντιμετώπισε τα λάθη στη νέα λειτουργία αναζήτησης AI
- Η λειτουργία AI Overview παρείχε παράξενες και παραπλανητικές απαντήσεις σε ερωτήματα αναζήτησης
- Η Reid εξήγησε ότι ένα σφάλμα προήλθε από τη λανθασμένη ερμηνεία σατιρικού περιεχομένου ως πραγματικών πληροφοριών
- Ένα άλλο σφάλμα αποδόθηκε σε περιεχόμενο τρολ από φόρουμ συζητήσεων
- Ο Reid υπερασπίστηκε την ποιότητα της νέας λειτουργίας αναζήτησης της Google παρά τα viral screenshots των σφαλμάτων
- Ορισμένα ευρέως διαδεδομένα στιγμιότυπα οθόνης των επισκοπήσεων AI επιβεβαιώθηκε ότι ήταν ψεύτικα
Αναλυτικά το άρθρο:
Η Liz Reid, επικεφαλής του τμήματος αναζήτησης της Google, ανέφερε σε ανάρτηση στο blog της ότι η εταιρεία έκανε προσαρμογές στη νέα λειτουργία αναζήτησης τεχνητής νοημοσύνης, αφού τα στιγμιότυπα των σφαλμάτων της έγιναν viral.
Όταν παράξενες και παραπλανητικές απαντήσεις σε ερωτήματα αναζήτησης που δημιουργήθηκαν από τη νέα λειτουργία Επισκόπηση AI της Google έγιναν viral στα μέσα κοινωνικής δικτύωσης την περασμένη εβδομάδα, η εταιρεία εξέδωσε δηλώσεις που γενικά υποβάθμισαν την άποψη ότι η τεχνολογία είχε προβλήματα. Αργά την Πέμπτη, η επικεφαλής αναζήτησης της εταιρείας, Λιζ Ριντ, παραδέχτηκε ότι οι γκάφες είχαν αναδείξει τομείς που χρειάζονταν βελτίωση, γράφοντας: «Θέλαμε να εξηγήσουμε τι συνέβη και τα βήματα που έχουμε λάβει».
Η ανάρτηση του Reid αναφερόταν άμεσα σε δύο από τα πιο διαδεδομένα, και εντελώς λανθασμένα, αποτελέσματα της Επισκόπησης Τεχνητής Νοημοσύνης. Το ένα είδε τους αλγόριθμους της Google να υποστηρίζουν την κατανάλωση βράχων επειδή αυτό «μπορεί να σας κάνει καλό» και το άλλο πρότεινε τη χρήση μη τοξικής κόλλας για να δέσει η σάλτσα πίτσας.
Η κατανάλωση βράχων δεν είναι ένα θέμα για το οποίο πολλοί άνθρωποι έγραφαν ή έκαναν ερωτήσεις στο διαδίκτυο, οπότε δεν υπάρχουν πολλές πηγές στις οποίες μπορεί να βασιστεί μια μηχανή αναζήτησης. Σύμφωνα με τον Reid, το εργαλείο τεχνητής νοημοσύνης βρήκε ένα άρθρο από τον σατιρικό ιστότοπο The Onion, το οποίο είχε αναδημοσιευτεί από μια εταιρεία λογισμικού, και παρερμήνευσε τις πληροφορίες ως πραγματικές.
Όσο για το ότι η Google είπε στους χρήστες της να βάλουν κόλλα στην πίτσα, ο Reid απέδωσε ουσιαστικά το λάθος σε αποτυχία της αίσθησης του χιούμορ. «Είδαμε AI Overviews που περιείχαν σαρκαστικό ή τρολ περιεχόμενο από φόρουμ συζητήσεων», έγραψε. «Τα φόρουμ είναι συχνά μια εξαιρετική πηγή αυθεντικών πληροφοριών από πρώτο χέρι, αλλά σε ορισμένες περιπτώσεις μπορεί να οδηγήσουν σε συμβουλές λιγότερο από χρήσιμες, όπως η χρήση κόλλας για να κολλήσει το τυρί στην πίτσα».
Είναι μάλλον καλύτερο να μην φτιάξετε οποιοδήποτε μενού δείπνου που δημιουργείται από τεχνητή νοημοσύνη χωρίς να το διαβάσετε προσεκτικά πρώτα.
Ο Reid πρότεινε επίσης ότι θα ήταν άδικο να κρίνουμε την ποιότητα της νέας προσέγγισης της Google στην αναζήτηση με βάση τα viral screenshots. Υποστήριξε ότι η εταιρεία έκανε εκτεταμένες δοκιμές πριν από την κυκλοφορία της και ότι τα δεδομένα της εταιρείας δείχνουν ότι οι άνθρωποι εκτιμούν τις επισκοπήσεις AI, μεταξύ άλλων υποδεικνύοντας ότι οι άνθρωποι είναι πιο πιθανό να παραμείνουν σε μια σελίδα που ανακαλύφθηκε με αυτόν τον τρόπο.
Γιατί οι ενοχλητικές αποτυχίες; Ο Reid χαρακτήρισε τα λάθη που κέρδισαν την προσοχή ως αποτέλεσμα ενός ελέγχου σε όλο το διαδίκτυο που δεν ήταν πάντα καλοπροαίρετος.
«Δεν υπάρχει τίποτα καλύτερο από το να έχεις εκατομμύρια ανθρώπους να χρησιμοποιούν τη λειτουργία με πολλές νέες αναζητήσεις. Είδαμε επίσης παράλογες νέες αναζητήσεις, που φαινομενικά αποσκοπούσαν στην παραγωγή λανθασμένων αποτελεσμάτων».
Η Google ισχυρίζεται ότι ορισμένα ευρέως διανεμημένα στιγμιότυπα οθόνης με επισκοπήσεις AI που πήγαν στραβά ήταν ψεύτικα, κάτι που φαίνεται να ισχύει με βάση τις δοκιμές του WIRED. Για παράδειγμα, ένας χρήστης στο X δημοσίευσε ένα στιγμιότυπο οθόνης που φαινόταν να είναι μια Επισκόπηση AI που απαντούσε στην ερώτηση «Μπορεί μια κατσαρίδα να ζήσει στο πέος σας;» με μια ενθουσιώδη επιβεβαίωση από τη μηχανή αναζήτησης ότι αυτό είναι φυσιολογικό. Η ανάρτηση έχει προβληθεί πάνω από 5 εκατομμύρια φορές. Μετά από περαιτέρω εξέταση, ωστόσο, η μορφή του στιγμιότυπου οθόνης δεν ευθυγραμμίζεται με τον τρόπο με τον οποίο παρουσιάζονται στην πραγματικότητα οι επισκοπήσεις AI στους χρήστες. Το WIRED δεν μπόρεσε να αναδημιουργήσει κάτι που να πλησιάζει αυτό το αποτέλεσμα.
Και δεν είναι μόνο οι χρήστες στα μέσα κοινωνικής δικτύωσης που εξαπατήθηκαν από παραπλανητικά screenshots ψεύτικων AI Overviews. Οι New York Times εξέδωσαν μια διόρθωση στην αναφορά τους σχετικά με τη λειτουργία και διευκρίνισαν ότι οι Επισκοπήσεις AI δεν πρότειναν ποτέ στους χρήστες να πηδήξουν από τη γέφυρα Golden Gate Bridge αν πάσχουν από κατάθλιψη - αυτό ήταν απλώς ένα σκοτεινό meme στα μέσα κοινωνικής δικτύωσης. «Άλλοι άφησαν να εννοηθεί ότι επιστρέψαμε επικίνδυνα αποτελέσματα για θέματα όπως το να αφήνεις σκύλους σε αυτοκίνητα, το κάπνισμα ενώ είσαι έγκυος και η κατάθλιψη», έγραψε ο Reid την Πέμπτη. «Αυτές οι επισκοπήσεις της τεχνητής νοημοσύνης δεν εμφανίστηκαν ποτέ».
Ωστόσο, η ανάρτηση του Reid καθιστά επίσης σαφές ότι δεν ήταν όλα εντάξει με την αρχική μορφή της νέας μεγάλης αναβάθμισης της αναζήτησης της Google. Η εταιρεία έκανε «περισσότερες από δώδεκα τεχνικές βελτιώσεις» στις Επισκοπήσεις AI, έγραψε.
Μόνο τέσσερις περιγράφονται: καλύτερη ανίχνευση των «ανούσιων ερωτημάτων» που δεν αξίζουν μια Επισκόπηση AI, η λειτουργία να βασίζεται λιγότερο σε περιεχόμενο που δημιουργείται από χρήστες από ιστότοπους όπως το Reddit, η προσφορά Επισκοπήσεων AI λιγότερο συχνά σε περιπτώσεις που οι χρήστες δεν τις έχουν βρει χρήσιμες και η ενίσχυση των προστατευτικών κιγκλιδωμάτων που απενεργοποιούν τις Επισκοπήσεις AI σε σημαντικά θέματα όπως η υγεία.
Στην ανάρτηση του Reid στο ιστολόγιο δεν αναφέρθηκε η σημαντική μείωση των περιλήψεων AI. Η Google λέει ότι θα συνεχίσει να παρακολουθεί τα σχόλια των χρηστών και να προσαρμόζει τις λειτουργίες ανάλογα με τις ανάγκες.
Πηγή: Google Admits Its AI Overviews Search Feature Screwed Up
