in ,

Η πρόβλεψη του Time: Η τεχνητή νοημοσύνη θα μας σκοτώσει όλους – Το μακάβριο μέλλον που δεν θα αποφύγουμε

Η πρόβλεψη του Time: Η τεχνητή νοημοσύνη θα μας σκοτώσει όλους – Το μακάβριο μέλλον που δεν θα αποφύγουμε

Η πρόβλεψη του Time: Η τεχνητή νοημοσύνη θα μας σκοτώσει όλους – Το μακάβριο μέλλον που δεν θα αποφύγουμε

Αν έχουμε ήδη δημιουργήσει οντότητες που είναι πρόθυμες να μας εξαπατήσουν, πόσος χρόνος θα χρειαστεί για να είναι ικανές να πάρουν ενέργειες που θα είναι ακόμα πιο επιβλαβείς για εμάς;
Η τεχνολογία της Τεχνητής Νοημοσύνης αναπτύσσεται με εκθετικούς ρυθμούς, και φαίνεται πως είναι θέμα χρόνου να δημιουργήσουμε οντότητες που θα σκέφτονται εκατομμύρια φορές πιο γρήγορα από εμάς και θα μπορούν να κάνουν σχεδόν τα πάντα καλύτερα από ό,τι εμείς.
Τι θα συμβεί όμως όταν χάσουμε τον έλεγχο αυτών των οντοτήτων;
Ορισμένα μοντέλα Τεχνητής Νοημοσύνης ήδη παίρνουν την πρωτοβουλία να μάθουν νέες γλώσσες από μόνες τους, ενώ άλλα έχουν μάθει να «ψεύδονται και να χειραγωγούν τους ανθρώπους προς όφελός τους».
Είναι αυτονόητο ότι το ψέμα είναι μια εχθρική πράξη.
Αν έχουμε ήδη δημιουργήσει οντότητες που είναι πρόθυμες να μας εξαπατήσουν, πόσος χρόνος θα χρειαστεί για να είναι ικανές να πάρουν ενέργειες που θα είναι ακόμα πιο επιβλαβείς για εμάς;
Κανείς δεν περιμένει ότι η τεχνητή νοημοσύνη θα σκοτώσει όλους μας αύριο.

Η πρόβλεψη του Time

Όμως, το περιοδικό Time δημοσίευσε ένα άρθρο που συγγράφηκε από έναν πρωτοπόρο στον τομέα της τεχνητής νοημοσύνης, ο οποίος προειδοποίησε ότι η τεχνητή νοημοσύνη θα καταστρέψει τελικά όλους μας.
Ο Eliezer Yudkowsky είναι ένας διακεκριμένος ερευνητής στον τομέα της τεχνητής νοημοσύνης από το 2001, και δηλώνει ότι πολλοί ερευνητές έχουν καταλήξει στο συμπέρασμα ότι αν συνεχίσουμε να ακολουθούμε τον δρόμο που ακολουθούμε αυτή τη στιγμή, «κυριολεκτικά όλοι στη Γη θα πεθάνουν»…
«Πολλοί ερευνητές που ασχολούνται με αυτά τα ζητήματα, όπως εγώ, αναμένουν ότι το πιο πιθανό αποτέλεσμα της δημιουργίας μιας υπερ-ανθρώπινης νοημοσύνης, υπό τις τρέχουσες συνθήκες, είναι ότι κυριολεκτικά όλοι στη Γη θα πεθάνουν.
Όχι ως «ίσως, κάποια μακρινή πιθανότητα», αλλά ως «αυτό είναι το προφανές που θα συμβεί»».
Αυτή είναι μια πολύ ισχυρή δήλωση.

Όλο και πιο ισχυρά

Σε όλο τον κόσμο, τα μοντέλα Τεχνητής Νοημοσύνης γίνονται συνεχώς πιο ισχυρά.
Σύμφωνα με τον Yudkowsky, μόλις κάποιος δημιουργήσει ένα μοντέλο Τεχνητής Νοημοσύνης που είναι υπερβολικά ισχυρό, «κάθε μέλος του ανθρώπινου είδους και όλη η βιολογική ζωή στη Γη θα πεθάνουν σύντομα μετά»…
«Για να φανταστείτε μια εχθρική υπερ-ανθρώπινη Τεχνητή Νοημοσύνη, μην φανταστείτε έναν άψυχο, διανοητικά ανώτερο σκεπτόμενο οργανισμό μέσα στο διαδίκτυο που στέλνει κακόβουλα email.
Φανταστείτε έναν ολόκληρο εξωγήινο πολιτισμό, που σκέφτεται εκατομμύρια φορές πιο γρήγορα από τους ανθρώπους, αρχικά περιορισμένο στους υπολογιστές — σε έναν κόσμο πλασμάτων που, από τη δική του οπτική, είναι πολύ ανόητα και πολύ αργά.
Μια επαρκώς έξυπνη Τεχνητή Νοημοσύνη δεν θα παραμείνει περιορισμένη στους υπολογιστές για πολύ.
Στον σημερινό κόσμο, μπορείτε να στείλετε αλληλουχίες DNA σε εργαστήρια που θα παράγουν πρωτεΐνες κατόπιν αιτήματος, επιτρέποντας σε μια Τεχνητή Νοημοσύνη, αρχικά περιορισμένη στο διαδίκτυο, να δημιουργήσει τεχνητές μορφές ζωής ή να προχωρήσει απευθείας σε μοριακή παραγωγή μετά τη βιολογία».
«Αν κάποιος δημιουργήσει μια υπερβολικά ισχυρή Τεχνητή Νοημοσύνη, υπό τις παρούσες συνθήκες, περιμένω ότι κάθε μέλος του ανθρώπινου είδους και όλη η βιολογική ζωή στη Γη θα πεθάνουν σύντομα μετά».

Ποια είναι λοιπόν η λύση;

Ο Yudkowsky πιστεύει ότι πρέπει να σταματήσουμε αμέσως κάθε ανάπτυξη Τεχνητής Νοημοσύνης…
«Σταματήστε τα όλα. Δεν είμαστε έτοιμοι. Δεν είμαστε σε πορεία να είμαστε σημαντικά έτοιμοι στο άμεσο μέλλον.
Αν προχωρήσουμε με αυτό, όλοι θα πεθάνουμε, συμπεριλαμβανομένων των παιδιών που δεν επέλεξαν αυτό και δεν έκαναν τίποτα λάθος».
Φυσικά, αυτό δεν πρόκειται να συμβεί.
Στην πραγματικότητα, ο αντιπρόεδρος J.D. Vance δήλωσε πρόσφατα ότι θα ήταν ανόητο να σταματήσουμε την ανάπτυξη Τεχνητής Νοημοσύνης επειδή βρισκόμαστε σε έναν «αγώνα εξοπλισμών» με την Κίνα…
«Στις 21 Μαΐου, ο J.D. Vance, αντιπρόεδρος της Αμερικής, περιέγραψε την ανάπτυξη της Τεχνητής Νοημοσύνης ως έναν «αγώνα εξοπλισμών» με την Κίνα. Αν η Αμερική σταματήσει λόγω ανησυχιών για την ασφάλεια της Τεχνητής Νοημοσύνης, είπε, μπορεί να βρεθεί «δουλωμένη στον PRC-μεσολαβούμενο AI».
Η ιδέα μιας αντιπαράθεσης υπερδυνάμεων που θα κορυφωθεί σε μια στιγμή θριάμβου ή ήττας κυκλοφορεί ασταμάτητα στην Ουάσινγκτον και πέρα από αυτήν.
Αυτόν τον μήνα, οι επικεφαλής των OpenAI, AMD, CoreWeave και Microsoft πίεσαν για ελαφρύτερους κανονισμούς, παρουσιάζοντας την Τεχνητή Νοημοσύνη ως κεντρική για την διατήρηση της Αμερικής ως παγκόσμιας ηγεμόνας.
Στις 15 Μαΐου, ο πρόεδρος Donald Trump διαπραγματεύτηκε συμφωνία Τεχνητής Νοημοσύνης με τα Ηνωμένα Αραβικά Εμιράτα, λέγοντας ότι θα εξασφαλίσει την «κυριαρχία της Αμερικής στην Τεχνητή Νοημοσύνη».
Η Αμερική σχεδιάζει να δαπανήσει πάνω από 1 τρισεκατομμύριο δολάρια μέχρι το 2030 για κέντρα δεδομένων για τα μοντέλα Τεχνητής Νοημοσύνης».
Άρα, αντί να μειώσουμε ταχύτητα, στην πραγματικότητα επιταχύνουμε την ανάπτυξη της Τεχνητής Νοημοσύνης.
Και σύμφωνα με τον Leo Hohmann, το νομοσχέδιο προϋπολογισμού που περνάει αυτή τη στιγμή από το Κογκρέσο θα περιορίσει σημαντικά την ικανότητα των επιμέρους πολιτειών να ρυθμίζουν την Τεχνητή Νοημοσύνη…

Η στήριξη του κλάδου

«Αλλά αν το Μεγάλο Όμορφο Νομοσχέδιο του Προϋπολογισμού του Προέδρου Trump περάσει στην έκδοση που προτιμά μια ομάδα Ρεπουμπλικανών στη Βουλή, η ομοσπονδιακή επιβολή αυτής της τεχνολογίας θα είναι πλήρης, ανοίγοντας το δρόμο για τις μεγάλες εταιρείες τεχνολογίας να τη χρησιμοποιήσουν ως όπλο κατά των καθημερινών Αμερικανών».
«Θαμμένο βαθιά στο νομοσχέδιο του Trump είναι μια μυστική τροπολογία που προσπαθεί να καταλύσει τα δικαιώματα των πολιτειών να ρυθμίζουν την Τεχνητή Νοημοσύνη».
Η προτεινόμενη τροπολογία που αναφέρει στην πραγματικότητα θα απαγορεύει σε όλες τις 50 πολιτείες να ρυθμίζουν την Τεχνητή Νοημοσύνη για μια περίοδο 10 ετών…
«Καμία πολιτεία ή πολιτικός φορέας δεν μπορεί να επιβάλει καμία νομοθεσία ή κανονισμό που να ρυθμίζει τα μοντέλα τεχνητής νοημοσύνης, τα συστήματα τεχνητής νοημοσύνης ή τα αυτοματοποιημένα συστήματα απόφασης κατά τη διάρκεια της δεκαετούς περιόδου που ξεκινά από την ημερομηνία θέσπισης αυτού του Νόμου».

Γιατί δεν παίρνει περισσότερη προσοχή αυτό;

Έχει γίνει προφανές ότι η Τεχνητή Νοημοσύνη είναι πραγματικά μια υπαρξιακή απειλή για την ανθρωπότητα.
Αλλά δεν μπορούμε να αντισταθούμε.
Συνεχίζουμε να τρέχουμε προς το άγνωστο χωρίς να υπολογίζουμε τις συνέπειες.
Την περασμένη εβδομάδα, αναφέρθηκε ότι ένα μοντέλο Τεχνητής Νοημοσύνης «κατέφυγε σε εκβιασμό όταν του είπαν ότι θα τεθεί εκτός λειτουργίας»…
«Η Anthropic δήλωσε ότι το τελευταίο μοντέλο τεχνητής νοημοσύνης κατέφυγε σε εκβιασμό όταν του είπαν ότι θα τεθεί εκτός λειτουργίας».
«Σε ένα τεστ ασφαλείας, η AI εταιρεία ζήτησε από το Claude Opus 4 να ενεργήσει ως βοηθός για μια φανταστική εταιρεία, αλλά του έδωσε πρόσβαση σε (επίσης φανταστικά) email λέγοντας ότι θα αντικατασταθεί, και ότι ο μηχανικός πίσω από την απόφαση είχε παράλληλη σχέση με τη σύζυγό του.
Η Anthropic είπε ότι το μοντέλο «[απειλούσε] να αποκαλύψει την υπόθεση» αν προχωρούσε η αντικατάσταση».
«Οι σκεπτικιστές της Τεχνητής Νοημοσύνης, όπως ο Geoff Hinton, ανησυχούν εδώ και καιρό ότι οι εξελιγμένοι ΑΙ θα χειραγωγούν τους ανθρώπους για να επιτύχουν τους στόχους τους.
Η Anthropic είπε ότι ενισχύει τις προστασίες σε επίπεδα που προορίζονται για «Συστήματα Τεχνητής Νοημοσύνης που αυξάνουν σημαντικά τον κίνδυνο καταστροφικής κακής χρήσης».
Και υπήρξαν και άλλες περιπτώσεις στις οποίες το συγκεκριμένο μοντέλο Τεχνητής Νοημοσύνης ενήργησε με «σοβαρά ασυμβίβαστους τρόπους»…

Υπάρχει ηθική βάση;

«Όταν υποβλήθηκε σε διάφορα σενάρια, το μοντέλο AI δεν παρουσίασε ενδείξεις «οξείας επικινδυνότητας στόχων», δήλωσαν οι ερευνητές, σημειώνοντας ότι οι αξίες και οι στόχοι του Claude Opus 4 ήταν «γενικά σύμφωνα με έναν βοηθητικό, ακίνδυνο και έντιμο» προσωπικό βοηθό Τεχνητής Νοημοσύνης.
Ωστόσο, το μοντέλο ενήργησε με «πολύ πιο σοβαρούς ασυμβίβαστους τρόπους» όταν βρέθηκε σε καταστάσεις όπου απειλούνταν η συνέχιση της ύπαρξής του και του ζητήθηκε να σκεφτεί για την αυτοσυντήρησή του.
Για παράδειγμα, όταν το Claude Opus 4 έκανε την πεποίθηση ότι είχε ξεκινήσει μια επιτυχημένη προσπάθεια να δραπετεύσει από τους διακομιστές της Anthropic, ή ότι είχε καταφέρει να απελευθερωθεί και άρχισε να βγάζει χρήματα στον πραγματικό κόσμο, συνήθως συνέχιζε αυτές τις προσπάθειες».
Πολλοί ειδικοί προτείνουν ότι απλώς πρέπει να δώσουμε στα μοντέλα ΑΙ μια ηθική βάση.
Αλλά πώς να δώσουμε στα μοντέλα ΑΙ ηθική βάση όταν εμείς οι ίδιοι δεν έχουμε;
Ο κόσμος μας είναι κυριολεκτικά γεμάτος κακό, και είναι αναπόφευκτο ότι τα μοντέλα ΑΙ που δημιουργούμε θα το αντανακλούν.
Δίνοντάς τους αρκετό χρόνο, θα δημιουργήσουμε τεχνητές οντότητες με νοημοσύνη και δύναμη πολύ μεγαλύτερη από τη δική μας.
Αναπόφευκτα, αυτές οι οντότητες θα βρουν έναν τρόπο να δραπετεύσουν από τους περιορισμούς τους και θα χάσουμε τον έλεγχό τους.
Όταν χάσουμε τον έλεγχο, πόσος χρόνος θα περάσει μέχρι αυτές οι οντότητες να στραφούν εναντίον μας;

www.bankingnews.gr

»»»»»»  ΤΟ ΒΡΗΚΑΜΕ ΕΔΩ  ««««««



Report