Η τεχνητή νοημοσύνη έχει εισβάλει για τα καλά στη ζωή μας, επηρεάζοντας όχι μόνο την καθημερινότητα αλλά ακόμα και τομείς της παγκόσμιας ασφάλειας και άμυνας, ενώ προσφάτως ο Μπιλ Γκέιτς εκτίμησε πως την επόμενη δεκαετία η AI θα κάνει τέτοια άλματα που θα αναλάβει το μεγαλύτερο ποσοστό της παραγωγής.
Ωστόσο, δεν λείπουν οι φωνές που εκφράζουν ανησυχίες για τον μακροπόθεσμο αντίκτυπό της στον κόσμο μας όπως αυτός διαμορφώνεται ραγδαία. Πολλοί αναρωτιούνται αν πρέπει να φτάσουμε σε ένα καταστροφικό συμβάν για να ληφθεί σοβαρά υπόψη η ασφάλεια της τεχνητής νοημοσύνης, καθώς τα επικίνδυνα περιστατικά που σχετίζονται με την AI έφτασαν σε επίπεδα ρεκόρ το 2024.
Το πλησιέστερο σημείο που έφτασε ποτέ ο κόσμος στον Αρμαγεδδώνα ήταν το 1983, στον Ψυχρό Πόλεμο, όταν ο 44χρονος αντισυνταγματάρχης του Κόκκινου Στρατού, Στανισλάβ Γιεβγκράφοβιτς Πετρόφ, που είχε υπηρεσία στον σοβιετικό σταθμό κοντά στη Μόσχα, είδε στην οθόνη του να αναβοσβήνει η κόκκινη ένδειξη επερχόμενης επίθεσης με πέντε διηπειρωτικούς βαλλιστικούς πυραύλους.
Αν ακολουθούσε το πρωτόκολλο και ειδοποιούσε τους ανωτέρους του για εισερχόμενη απειλή, πιθανόν αυτό να οδηγούσε σε αντίποινα κατά των ΗΠΑ και εν συνεχεία σε ολοκληρωτικό πυρηνικό πόλεμο. Αλλά ο Πετρόφ δεν εμπιστευόταν τον υπολογιστή και έτσι ανέφερε απλώς δυσλειτουργία του συστήματος. «Ο άνθρωπος που έσωσε τον κόσμο», όπως είναι πλέον γνωστός, είχε δίκιο καθώς το σύστημα έγκαιρης προειδοποίησης είχε στην ουσία πιάσει τις αντανακλάσεις του ήλιου στα σύννεφα και τις ερμήνευσε ως πυραύλους.
«Η σειρήνα ούρλιαζε κι εγώ καθόμουν ακίνητος και κοιτούσα την οθόνη με την κόκκινη ένδειξη ‘εκτόξευση’. Συνέχισε δεύτερη ειδοποίηση, τρίτη, τέταρτη, πέμπτη μέχρι που η ένδειξη άλλαξε σε ‘πύραυλοι’. Έπρεπε απλώς να απλώσω το χέρι και να πάρω τηλέφωνο. Αλλά δεν μπορούσα να κουνηθώ» έχει πει ο ίδιος.
AI: Ρεκόρ θανατηφόρων περιστατικών και επικίνδυνων συμβάντων
Όπως αναφέρει δημοσίευμα του Independent, τα ανησυχητικά περιστατικά που καταγράφονται στη βάση δεδομένων AI Incident Database έφτασαν τα 253 το 2024, ενώ ο αριθμός εκτιμάται ότι θα είναι ακόμα μεγαλύτερος το 2025.
Κάποια είναι απλώς προβληματικά, όπως το σεξιστικό εργαλείο προσλήψεων της Amazon που χαρακτήριζε υποδεέστερες τις γυναίκες υποψήφιες ή η ελαττωματική τεχνολογία αναγνώρισης προσώπου που οδηγεί σε άδικες συλλήψεις. Όμως, άλλα περιστατικά δυσλειτουργίας των συστημάτων ήταν θανατηφόρα, όπως το ρομπότ που συνέθλιψε έναν εργάτη σε εργοστάσιο της Volkswagen στη Γερμανία.
Η απειλή που συνιστά η τεχνητή νοημοσύνη, παρ’ όλα αυτά, δεν φαίνεται να λαμβάνεται σοβαρά υπόψη από εκείνους που θα μπορούσαν να κάνουν κάτι γι’ αυτό. Ο δρ Μάριο Χέργκερ, ερευνητής τεχνολογικών τάσεων στη Σίλικον Βάλεϊ, αποκαλεί την κατάσταση «Περλ Χάρμπορ της AI» για να τονίσει την αιφνιδιαστική καταστροφή που μπορεί να επιφέρει η ανεξέλεγκτη χρήση της.
Σε μια παλαιότερη ανάρτησή του ο ίδιος είχε γράψει ότι θα δοθεί προτεραιότητα στην ασφάλεια της τεχνητής νοημοσύνης μόνο όταν αν η AI σκοτώσει χιλιάδες ανθρώπους ή κλέψει εκατοντάδες δισεκατομμύρια ευρώ από μια κυβέρνηση. «Ο ερχομός ενός AI Pearl Harbour δεν είναι αναπόφευκτος ελλείψει προετοιμασίας και άμυνας εναντίον του, αλλά επειδή – όπως πάντα – δεν το παίρνουμε στα σοβαρά μέχρι να συμβεί», είχε αναφέρει χαρακτηριστικά.
Σύμφωνα με τον ίδιο, το περιστατικό θα μπορούσε να έρθει με τη μορφή ανθρωποειδών ρομπότ που επιτίθενται μαζικά σε ανθρώπους λόγω κάποιας δυσλειτουργίας ή με μια κακόβουλη τεχνητή νοημοσύνη που παίρνει τον έλεγχο κρίσιμων υποδομών για να προκαλέσει θανατηφόρες διακοπές ρεύματος ή οικονομικό χάος.
Τα προηγμένα εργαλεία AI έχουν πολλαπλασιάσει τους κινδύνους
Με την εμφάνιση των εργαλείων της τεχνητής νοημοσύνης, όπως το ChatGPT και άλλα προηγμένα μοντέλα, οι τρόποι που αυτό μπορεί να συμβεί έχουν πλέον πολλαπλασιαστεί με γεωμετρική πρόοδο.
«Η τεχνητή νοημοσύνη είναι παντού και θα δούμε πολύ περισσότερες μορφές AI να καταλαμβάνουν διάφορους τομείς της ζωής μας», λέει ο δρ Χέργκερ τονίζοντας ότι τα ανθρωποειδή ρομπότ κατασκευάζονται πλέον σε εμπορική κλίμακα, ενώ διαρκώς βελτιώνεται η υψηλή τεχνολογία των drones.
Για την αντιμετώπιση τέτοιων απειλών κορυφαίες εταιρείες, όπως η OpenAI, η Google και η Meta, έχουν εφαρμόσει πολιτικές ασφάλειας για την υπεύθυνη ανάπτυξη της τεχνητής νοημοσύνης. Στο ίδιο πνεύμα κινούνται και κυβερνήσεις σε όλο τον κόσμο. Όμως, όπως συμβαίνει με όλες τις τεχνολογίες, οι κανονισμοί βρίσκονται σε συνεχή αναπροσαρμογή όσο η ΑΙ εξελίσσεται.
Η Σύνοδος Κορυφής του Παρισιού
Τον Φεβρουάριο, ηγέτες από περισσότερες από 100 χώρες συγκεντρώθηκαν στη Σύνοδο Κορυφής στο Παρίσι, προκειμένου να καταλήξουν σε μια συντονισμένη προσέγγιση για την ανάπτυξη και την ασφάλεια της τεχνητής νοημοσύνης. Και ενώ 60 χώρες υπέγραψαν δήλωση για να διασφαλιστεί ότι η τεχνητή νοημοσύνη είναι «ανοικτή, χωρίς αποκλεισμούς, διαφανής, ηθική, ασφαλής, και αξιόπιστη», το Ηνωμένο Βασίλειο και οι ΗΠΑ αρνήθηκαν να πράξουν το ίδιο.
Ειδικοί σε θέματα ηθικής της τεχνητής νοημοσύνης, μεταξύ των οποίων ο Ντέιβιντ Λέσλι από το Ινστιτούτο Alan Turing, υποστήριξαν ότι η διάσκεψη επικεντρώθηκε περισσότερο στην προώθηση ευκαιριών για οικονομική ανάπτυξη παρά στην αντιμετώπιση των πραγματικών κινδύνων που ενέχει η τεχνητή νοημοσύνη. Προηγμένα μοντέλα από την Κίνα, όπως το DeepSeek και το Manus, εντείνουν περαιτέρω την εστίαση στον ανταγωνισμό και όχι στους κινδύνους.
Αχαρτογράφητα νερά
Ο δρ Σον ΜακΓκρέγκορ, ειδικός σε θέματα ασφάλειας τεχνητής νοημοσύνης, ο οποίος ξεκίνησε τη βάση δεδομένων AI Incident Database το 2018, προειδοποιεί ότι η άφιξη νέων συστημάτων τεχνητής νοημοσύνης φέρνει μαζί της κινδύνους που είναι σχεδόν αδύνατο να προβλεφθούν παρομοιάζοντας κάθε νέο περιστατικό δυσλειτουργίας με αεροπορικό δυστύχημα.
«Δεν εκπλήσσομαι που βλέπω τα περιστατικά AI να αυξάνονται απότομα», λέει ο ίδιος, καθώς «ενώ τα συστήματα τεχνητής νοημοσύνης γίνονται ασφαλέστερα κάθε χρόνο για τους ανθρώπους να τα χρησιμοποιούν, εισέρχονται και οι κακόβουλοι παράγοντες» για να συμπληρώσει ότι η διασφάλιση πως η τεχνητή νοημοσύνη είναι επωφελής και ασφαλής για όλη την ανθρωπότητα απαιτεί τεχνολογικές και κοινωνικές προόδους σε όλες τις βιομηχανίες και τις κυβερνήσεις.
Ένα πιθανό σενάριο για ένα τεχνολογικό Περλ Χάρμπορ, σύμφωνα με τον ΜακΓκρέγκορ, θα ήταν μια παράλληλη επίθεση «κατά όλων των δικτύων υπολογιστικών συστημάτων στον κόσμο» όταν θα υπάρξει η μορφή τεχνητής νοημοσύνης που θα απαιτούνταν για κάτι τέτοιο.
Τεχνητή υπερνοημοσύνη και μετά τι;
Σχεδόν όλες οι κορυφαίες εταιρείες AI εργάζονται επί του παρόντος για τη νοημοσύνη ανθρώπινου επιπέδου (AGI). Μόλις επιτευχθεί αυτό – οι εκτιμήσεις κυμαίνονται από μήνες έως δεκαετίες – τότε πιθανότατα θα ακολουθήσει η άφιξη της τεχνητής υπερνοημοσύνης, που σημαίνει ότι δεν θα είμαστε πλέον σε θέση ούτε καν να κατανοήσουμε τις προόδους που γίνονται στην τεχνητή νοημοσύνη.
Τότε ίσως είναι ικανή να κάνει μεγαλύτερη ζημιά από οποιονδήποτε άνθρωπο και να είναι πολύ αργά για να την σταματήσουμε.
Ο CEO της OpenAI, Σαμ Άλτμαν, έχει εκφράσει συχνά ανησυχίες για την προηγμένη τεχνητή νοημοσύνη που θα μπορούσε να επιφέρει το τέλος του ανθρώπινου πολιτισμού. Ωστόσο, πιέζει συνεχώς την εταιρεία του να λανσάρει προϊόντα προτού οι εργαζόμενοι τα θεωρήσουν ασφαλή για να κυκλοφορήσουν. Το επιχείρημά του είναι ότι οι δυνάμεις της αγοράς το επιβάλλουν, καθώς αν δεν προωθηθούν νέα μοντέλα, τότε το OpenAI κινδυνεύει να μείνει πίσω.
Το άλλο επιχείρημα είναι ότι η τεχνητή νοημοσύνη έχει τη δυνατότητα να προσφέρει τεράστιο όφελος και ότι η καταστολή της ανάπτυξής της θα μπορούσε να επιβραδύνει επιστημονικές ανακαλύψεις που θα μπορούσαν να βοηθήσουν στη θεραπεία ασθενειών ή να αντιμετωπίσουν τις χειρότερες επιπτώσεις της κλιματικής αλλαγής.
H AGI αναφέρεται και ως «Άγιο Δισκοπότηρο της AI» λόγω των δυνατοτήτων της και ο αγώνας για την επίτευξή της είναι σκληρός. Μια πρόσφατη έκθεση ερευνητών του Πανεπιστημίου του Στάνφορντ διαπίστωσε ότι η Κίνα πλησιάζει ταχύτατα τις ΗΠΑ όσον αφορά την ανάπτυξη AI σε ανθρώπινο επίπεδο , με τις αμερικανικές εταιρείες να σπεύδουν τώρα να κυκλοφορήσουν προϊόντα τεχνητής νοημοσύνης για να συμβαδίσουν.
Στην ίδια έκθεση σημειώνεται και η ανησυχητική τάση αύξησης των περιστατικών που σχετίζονται με την τεχνητή νοημοσύνη σε επίπεδα ρεκόρ. Σε αυτήν υπογραμμμίζεται η περίπτωση ενός 14χρονου αγοριού που αυτοκτόνησε τον Φεβρουάριο του 2024 στις ΗΠΑ ύστερα από «παρατεταμένες αλληλεπιδράσεις» με έναν χαρακτήρα chatbot. Η υπόθεση ήταν εμβληματική των πολύπλοκων ηθικών προκλήσεων που περιβάλλουν την τεχνητή νοημοσύνη, σύμφωνα με τους συντάκτες, και τους κινδύνους που ενέχει η ανάπτυξη νέων προϊόντων χωρίς επαρκή εποπτεία.
Ο ΜακΓκρέγκορ επισημαίνει, τέλος, ένα συγκεκριμένο μονοπάτι προς την καταστροφή: την αμέλεια. Αλλά ακριβώς όπως η όξινη βροχή, η ρύπανση των ποταμών και οι πετρελαιοκηλίδες έχουν γίνει σύμβολα περιβαλλοντικής υποβάθμισης που ωθούν στην αλλαγή, ελπίζει ότι η βάση δεδομένων θα κάνει το ίδιο και για την τεχνητή νοημοσύνη.