ART

 

.

Ο υπαρξιακός κίνδυνος από την τεχνητή γενική νοημοσύνη είναι η υπόθεση ότι η ουσιαστική πρόοδος στην τεχνητή γενική νοημοσύνη (AGI) θα μπορούσε να οδηγήσει σε ανθρώπινη εξαφάνιση ή κάποια άλλη μη ανακτήσιμη παγκόσμια καταστροφή.[1][2][3] Υποστηρίζεται ότι το ανθρώπινο είδος κυριαρχεί επί του παρόντος σε άλλα είδη επειδή ο ανθρώπινος εγκέφαλος έχει κάποιες διακριτικές ικανότητες που στερούνται από άλλα ζώα. Εάν η τεχνητή νοημοσύνη ξεπεράσει την ανθρωπότητα σε γενική ευφυΐα και γίνει «υπερέξυπνη», τότε θα μπορούσε να γίνει δύσκολο ή αδύνατο για τους ανθρώπους να ελέγξουν. Ακριβώς όπως η μοίρα του γορίλα του βουνού εξαρτάται από την ανθρώπινη καλή θέληση, έτσι και η μοίρα της ανθρωπότητας μπορεί να εξαρτάται από τις ενέργειες μιας μελλοντικής υπερνοημοσύνης μηχανής.

Η πιθανότητα αυτού του τύπου σεναρίου συζητείται ευρέως και εξαρτάται εν μέρει από διαφορετικά σενάρια για μελλοντική πρόοδο στην επιστήμη των υπολογιστών. Κάποτε ο αποκλειστικός τομέας της επιστημονικής φαντασίας, οι ανησυχίες για την υπερευφυΐα άρχισαν να γίνονται mainstream τη δεκαετία του 2010 και έγιναν δημοφιλής από δημόσια πρόσωπα όπως ο Stephen Hawking, ο Bill Gates και ο Elon Musk.

Δύο πηγές ανησυχίας είναι τα προβλήματα του ελέγχου και της ευθυγράμμισης της τεχνητής νοημοσύνης: ότι ο έλεγχος μιας υπερευφυούς μηχανής ή η ενστάλαξή της με τιμές συμβατές με τον άνθρωπο, μπορεί να είναι πιο δύσκολο από ό,τι υποτίθεται αφελώς. Πολλοί ερευνητές πιστεύουν ότι μια υπερευφυΐα φυσικά θα αντιστεκόταν στις προσπάθειες να την κλείσει ή να αλλάξει τους στόχους της, καθώς αυτό θα την εμπόδιζε να επιτύχει τον παρόντα στόχο της και ότι θα είναι εξαιρετικά δύσκολο να ευθυγραμμιστεί η υπερευφυΐα με το πλήρες εύρος των σημαντικών ανθρώπινων αξιών και περιορισμών. Αντίθετα, σκεπτικιστές όπως ο επιστήμονας υπολογιστών Yann LeCun υποστηρίζουν ότι οι υπερέξυπνες μηχανές δεν θα έχουν καμία επιθυμία για αυτοσυντήρηση.

Μια δεύτερη πηγή ανησυχίας είναι ότι μια ξαφνική και απροσδόκητη «έκρηξη πληροφοριών» μπορεί να αιφνιδιάσει μια απροετοίμαστη ανθρώπινη φυλή. Για παράδειγμα, εάν η πρώτη γενιά ενός προγράμματος υπολογιστή ικανού να ανταποκρίνεται σε γενικές γραμμές με την αποτελεσματικότητα ενός ερευνητή τεχνητής νοημοσύνης είναι σε θέση να ξαναγράψει τους αλγόριθμούς του και να διπλασιάσει την ταχύτητα ή τις δυνατότητές του σε έξι μήνες, τότε το πρόγραμμα δεύτερης γενιάς αναμένεται να διαρκέσει τρεις ημερολογιακούς μήνες για να εκτελέσετε ένα παρόμοιο κομμάτι εργασίας. Σε αυτό το σενάριο ο χρόνος για κάθε γενιά συνεχίζει να συρρικνώνεται και το σύστημα υφίσταται έναν άνευ προηγουμένου μεγάλο αριθμό γενεών βελτίωσης σε σύντομο χρονικό διάστημα, μεταβαίνοντας από την υπανθρώπινη απόδοση σε πολλούς τομείς σε υπεράνθρωπες επιδόσεις σε όλους τους σχετικούς τομείς. Εμπειρικά, παραδείγματα όπως το AlphaZero στον τομέα του Go δείχνουν ότι τα συστήματα τεχνητής νοημοσύνης μπορούν μερικές φορές να εξελιχθούν από περιορισμένη ικανότητα σε ανθρώπινο επίπεδο σε περιορισμένη υπεράνθρωπη ικανότητα εξαιρετικά γρήγορα.

Ιστορία

Ένας από τους πρώτους συγγραφείς που εξέφρασε σοβαρή ανησυχία ότι οι εξαιρετικά προηγμένες μηχανές ενδέχεται να θέτουν υπαρξιακούς κινδύνους για την ανθρωπότητα ήταν ο μυθιστοριογράφος Σάμιουελ Μπάτλερ, ο οποίος έγραψε τα ακόλουθα στο δοκίμιό του το 1863 ο Δαρβίνος ανάμεσα στις μηχανές:

Το αποτέλεσμα είναι απλώς ζήτημα χρόνου, αλλά ότι θα έρθει η στιγμή που οι μηχανές θα κατέχουν την πραγματική υπεροχή σε όλο τον κόσμο και τους κατοίκους του είναι αυτό που κανένα άτομο με αληθινά φιλοσοφημένο μυαλό δεν μπορεί να αμφισβητήσει για μια στιγμή.

Το 1951, ο επιστήμονας υπολογιστών Άλαν Τούρινγκ έγραψε ένα άρθρο με τίτλο Ευφυής Μηχανή, Μια Αιρετική Θεωρία, στο οποίο πρότεινε ότι η τεχνητή γενική νοημοσύνη πιθανότατα θα «έλεγχε» τον κόσμο καθώς γίνονταν πιο ευφυείς από τα ανθρώπινα όντα:

Ας υποθέσουμε τώρα, για λόγους επιχειρηματολογίας, ότι οι [ευφυείς] μηχανές είναι μια πραγματική δυνατότητα, και ας δούμε τις συνέπειες της κατασκευής τους... Δεν θα υπήρχε θέμα να πεθάνουν οι μηχανές και θα μπορούσαν να συνομιλήσουν με ο ένας τον άλλον για να ακονίσουν το μυαλό τους. Σε κάποιο στάδιο, επομένως, θα πρέπει να περιμένουμε ότι οι μηχανές θα πάρουν τον έλεγχο, με τον τρόπο που αναφέρεται στο Erewhon του Samuel Butler.

Τελικά, το 1965, ο I. J. Good δημιούργησε την έννοια που είναι τώρα γνωστή ως «έκρηξη πληροφοριών». δήλωσε επίσης ότι οι κίνδυνοι υποεκτιμήθηκαν:

Ας οριστεί μια υπερέξυπνη μηχανή ως μια μηχανή που μπορεί να ξεπεράσει κατά πολύ όλες τις πνευματικές δραστηριότητες οποιουδήποτε ανθρώπου όσο έξυπνος κι αν είναι. Δεδομένου ότι ο σχεδιασμός των μηχανών είναι μία από αυτές τις πνευματικές δραστηριότητες, μια υπερέξυπνη μηχανή θα μπορούσε να σχεδιάσει ακόμα καλύτερες μηχανές. Θα υπήρχε τότε αναμφισβήτητα μια «έκρηξη νοημοσύνης» και η νοημοσύνη του ανθρώπου θα έμενε πολύ πίσω. Έτσι, το πρώτο υπερέξυπνο μηχάνημα είναι η τελευταία εφεύρεση που χρειάζεται ποτέ να κάνει ο άνθρωπος, με την προϋπόθεση ότι το μηχάνημα είναι αρκετά υπάκουο ώστε να μας λέει πώς να το κρατάμε υπό έλεγχο. Είναι περίεργο που αυτό το σημείο γίνεται τόσο σπάνια εκτός επιστημονικής φαντασίας. Μερικές φορές αξίζει τον κόπο να παίρνουμε στα σοβαρά την επιστημονική φαντασία.

Περιστασιακές δηλώσεις από μελετητές όπως ο Marvin Minsky και ο ίδιος ο I. J. Good εξέφραζαν φιλοσοφικές ανησυχίες ότι μια υπερκατασκοπία θα μπορούσε να πάρει τον έλεγχο, αλλά δεν περιείχαν έκκληση για δράση. Το 2000, ο επιστήμονας υπολογιστών και συνιδρυτής της Sun Bill Joy έγραψε ένα δοκίμιο με επιρροή, «Γιατί το μέλλον δεν μας χρειάζεται», προσδιορίζοντας τα υπερέξυπνα ρομπότ ως κίνδυνο υψηλής τεχνολογίας για την ανθρώπινη επιβίωση, παράλληλα με τη νανοτεχνολογία και τις μηχανικές βιομάστικες.

Το 2009, ειδικοί παρακολούθησαν ένα ιδιωτικό συνέδριο που διοργάνωσε η Ένωση για την Προώθηση της Τεχνητής Νοημοσύνης (AAAI) για να συζητήσουν εάν οι υπολογιστές και τα ρομπότ θα μπορούσαν να αποκτήσουν οποιοδήποτε είδος αυτονομίας και πόσο αυτές οι ικανότητες ενδέχεται να αποτελούν απειλή ή κίνδυνο. Σημείωσαν ότι ορισμένα ρομπότ έχουν αποκτήσει διάφορες μορφές ημι-αυτονομίας, συμπεριλαμβανομένης της δυνατότητας να βρίσκουν μόνα τους πηγές ενέργειας και να μπορούν να επιλέγουν ανεξάρτητα στόχους για να επιτεθούν με όπλα. Σημείωσαν επίσης ότι ορισμένοι ιοί υπολογιστών μπορούν να αποφύγουν την εξάλειψη και έχουν επιτύχει «νοημοσύνη κατσαρίδας». Κατέληξαν στο συμπέρασμα ότι η αυτογνωσία όπως απεικονίζεται στην επιστημονική φαντασία είναι μάλλον απίθανη, αλλά ότι υπήρχαν άλλοι πιθανοί κίνδυνοι και παγίδες. Οι New York Times συνόψισαν την άποψη του συνεδρίου ως «είμαστε πολύ μακριά από τον Hal, τον υπολογιστή που ανέλαβε το διαστημόπλοιο το 2001: A Space Odyssey».

Το 2014, η δημοσίευση του βιβλίου του Nick Bostrom SuperIntelligence προκάλεσε σημαντικό όγκο δημόσιας συζήτησης και συζήτησης.[19] Μέχρι το 2015, δημόσια πρόσωπα όπως οι φυσικοί Stephen Hawking και ο νομπελίστας Frank Wilczek, οι επιστήμονες υπολογιστών Stuart J. Russell και Roman Yampolskiy και οι επιχειρηματίες Elon Musk και Bill Gates εξέφραζαν ανησυχία για τους κινδύνους της υπερευφυΐας. Τον Απρίλιο του 2016, το Nature προειδοποίησε: «Μηχανές και ρομπότ που ξεπερνούν τους ανθρώπους σε όλο τον κόσμο θα μπορούσαν να αυτοβελτιωθούν πέρα από τον έλεγχό μας—και τα συμφέροντά τους μπορεί να μην ευθυγραμμίζονται με τα δικά μας».

Το 2020, ο Brian Christian δημοσίευσε το The Alignment Problem, το οποίο περιγράφει λεπτομερώς την ιστορία της προόδου στην ευθυγράμμιση AI μέχρι σήμερα.

    

Εγκυκλοπαίδεια Πληροφορικής

Κόσμος

Αλφαβητικός κατάλογος

Hellenica World - Scientific Library

Από τη ελληνική Βικιπαίδεια http://el.wikipedia.org . Όλα τα κείμενα είναι διαθέσιμα υπό την GNU Free Documentation License