
27 Δεκεμβρίου 2025
Η Daniela Amodei της Anthropic Πιστεύει ότι η Αγορά Θα Ανταμείψει την Ασφαλή Τεχνητή Νοημοσύνη

Περίληψη
Η πρόεδρος της Anthropic, Daniela Amodei, υποστηρίζει ότι η αγορά ζητά και επιβραβεύει την ασφαλή AI, παρά τους ισχυρισμούς της κυβέρνησης Trump ότι η ρύθμιση “πνίγει” την καινοτομία. Η Amodei εξηγεί ότι εταιρείες και πελάτες επιλέγουν μοντέλα AI που είναι αξιόπιστα, με λιγότερα λάθη, λιγότερες παραισθήσεις και σαφή όρια. Παράλληλα, προβάλλει τη “constitutional AI” προσέγγιση της Anthropic ως μοντέλο ηθικής εκπαίδευσης. Η εταιρεία έχει αναπτυχθεί ραγδαία (από 200 σε 2.000 εργαζομένους) και βλέπει συνεχή ζήτηση και πρόοδο στα μοντέλα της.
Κύρια Σημεία
- Η κυβέρνηση Trump θεωρεί ότι η υπερβολική ρύθμιση “σκοτώνει” την AI – η Anthropic διαφωνεί.
- Η Amodei δηλώνει ότι η αγορά ζητά πιο ασφαλή, αξιόπιστα μοντέλα, όχι λιγότερο ασφαλή.
- Περισσότερες από 300.000 εταιρείες και developers χρησιμοποιούν Claude.
- Η ασφάλεια λειτουργεί όπως τα crash tests των αυτοκινήτων:
– δείχνεις τα ρίσκα → αυξάνεις την εμπιστοσύνη. - Η “constitutional AI” βασίζεται σε ηθικά κείμενα όπως η Διακήρυξη Ανθρωπίνων Δικαιωμάτων.
- Η ειλικρίνεια για τα ρίσκα και τα όρια βοηθά την Anthropic να κρατάει και να προσελκύει ταλέντο.
- Η εταιρεία έχει κάνει τεράστιο scaling: από 200 σε 2.000 εργαζόμενους σε λίγα χρόνια.
- Παρά το AI bubble talk, δεν βλέπουν επιβράδυνση σε ικανότητα μοντέλων και έσοδα.
- Η Amodei τονίζει ότι οι “καμπύλες scaling” ισχύουν – μέχρι να μην ισχύουν.
- Η Anthropic προσπαθεί να παραμείνει ταπεινή και ρεαλιστική απέναντι στο μέλλον της AI.
Αναλυτικά
Η Daniela Amodei, πρόεδρος και συνιδρύτρια της Anthropic, μίλησε στο WIRED Big Interview για τη θέση της σχετικά με την ασφάλεια στην τεχνητή νοημοσύνη. Παρά τις κατηγορίες της κυβέρνησης Trump – που θεωρεί ότι η ρύθμιση και οι προειδοποιήσεις της Anthropic για κίνδυνο AI αποτελούν “στρατηγική εκφοβισμού” και “ρυθμιστικό capture” – η Amodei υποστηρίζει ότι αυτές οι πρακτικές όχι μόνο δεν εμποδίζουν την καινοτομία, αλλά ενισχύουν την εμπιστοσύνη και τη σταθερότητα του οικοσυστήματος.
Εξηγεί ότι η Anthropic από την πρώτη μέρα μίλησε ανοιχτά για τις τεράστιες δυνατότητες της AI, αλλά και για τα ρίσκα που πρέπει να ελεγχθούν ώστε η παγκόσμια κοινωνία να μπορέσει να αποκομίσει τα οφέλη. Η εταιρεία έχει πάνω από 300.000 χρήστες και συνεργάτες και διαπιστώνει ότι οι εταιρείες θέλουν AI που να είναι ισχυρή, αλλά ταυτόχρονα ασφαλής, αξιόπιστη και ικανή να αποφεύγει επιβλαβές περιεχόμενο και παραισθήσεις.
Η Amodei παρομοιάζει την προσέγγισή της με τα crash tests στην αυτοκινητοβιομηχανία: όταν δείχνεις πού μπορεί να αποτύχει ένα σύστημα και πώς το βελτίωσες, κερδίζεις εμπιστοσύνη. Αυτό, λέει, δημιουργεί έναν de facto μηχανισμό “αυτορρύθμισης” της αγοράς, όπου οι εταιρείες επιλέγουν τα πιο ασφαλή μοντέλα επειδή αυτά υποστηρίζουν τις πραγματικές τους ροές εργασίας.
Παρουσίασε επίσης την προσέγγιση “constitutional AI”, όπου τα μοντέλα εκπαιδεύονται με βάση θεμελιώδη ηθικά κείμενα όπως η Διακήρυξη Ανθρωπίνων Δικαιωμάτων. Με αυτόν τον τρόπο, το μοντέλο δεν απαντά μόνο με τεχνική λογική, αλλά με ενσωματωμένες αξίες.
Η Amodei σημειώνει ότι αυτή η έμφαση στις αξίες και την ειλικρίνεια έχει βοηθήσει σημαντικά την Anthropic στην προσέλκυση και διατήρηση ταλέντου. Η εταιρεία έχει αναπτυχθεί από 200 άτομα σε πάνω από 2.000, δείγμα της ζήτησης για το έργο της. Τέλος, αναφέρει ότι η Anthropic δεν βλέπει επιβράδυνση στον ρυθμό βελτίωσης των μοντέλων ή των εσόδων, αλλά παραμένει ταπεινή, αναγνωρίζοντας ότι οι καμπύλες scaling ισχύουν “μέχρι να μην ισχύουν”.
Sentiment Δείκτης
+2 (θετικό) – Τονίζει εμπιστοσύνη, ανάπτυξη και αισιοδοξία για ασφαλή AI προϊόντα.
Υπάρχει πολιτική ένταση στο υπόβαθρο, αλλά η αφήγηση παραμένει θετική.






