Τα ευρήματα βασίστηκαν σε συνεντεύξεις με περισσότερους από 200 ανθρώπους για πάνω από έναν χρόνο, συμπεριλαμβανομένων στελεχών κορυφαίων εταιρειών τεχνητής νοημοσύνης, ερευνητών κυβερνοασφάλειας, εμπειρογνωμόνων σε θέματα όπλων μαζικής καταστροφής και αξιωματούχων εθνικής ασφάλειας εντός της κυβέρνησης.
Η έκθεση, η οποία δημοσιεύθηκε αυτή την εβδομάδα από την Gladstone AI, δηλώνει ευθέως ότι τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν, στη χειρότερη περίπτωση, «να αποτελέσουν απειλή επιπέδου εξαφάνισης για το ανθρώπινο είδος».
Ένας αξιωματούχος του αμερικανικού υπουργείου Εξωτερικών επιβεβαίωσε στο CNN ότι η έρευνα πραγματοποιήθηκε για λογαριασμό του υπουργείου, καθώς αξιολογεί συνεχώς τον τρόπο με τον οποίο η τεχνητή νοημοσύνη ευθυγραμμίζεται με τον στόχο του να προστατεύσει τα συμφέροντα των ΗΠΑ στο εσωτερικό και στο εξωτερικό. Ωστόσο, ο αξιωματούχος τόνισε ότι η έκθεση δεν αντιπροσωπεύει τις απόψεις της αμερικανικής κυβέρνησης.
Η προειδοποίηση της έκθεσης αποτελεί άλλη μια υπενθύμιση ότι, αν και οι δυνατότητες της τεχνητής νοημοσύνης εξακολουθούν να γοητεύουν τους επενδυτές και το κοινό, υπάρχουν και πραγματικοί κίνδυνοι.
Πάνω από ένα όριο δυνατοτήτων, η τεχνητή νοημοσύνη θα μπορούσε να γίνει «ανεξέλεγκτη»
Η τεχνητή νοημοσύνη «θα μπορούσε να μας επιτρέψει να θεραπεύσουμε ασθένειες, να κάνουμε επιστημονικές ανακαλύψεις και να ξεπεράσουμε προκλήσεις που κάποτε θεωρούσαμε ανυπέρβλητες» δήλωσε την Τρίτη στο CNN ο Τζέρεμι Χάρις, διευθύνων σύμβουλος και συνιδρυτής της Gladstone AI.
«Αλλά θα μπορούσε επίσης να επιφέρει σοβαρούς κινδύνους, τους οποίους πρέπει να γνωρίζουμε», δήλωσε ο Χάρις. «Ένας αυξανόμενος όγκος στοιχείων -συμπεριλαμβανομένων εμπειρικών ερευνών και αναλύσεων που δημοσιεύονται στα κορυφαία συνέδρια για την τεχνητή νοημοσύνη στον κόσμο- υποδηλώνει ότι πάνω από ένα ορισμένο όριο δυνατοτήτων η τεχνητή νοημοσύνη θα μπορούσε δυνητικά να γίνει ανεξέλεγκτη», τόνισε.
«Σαφής και επείγουσα ανάγκη» για παρέμβαση, κινδύνους που «θυμίζουν τα πυρηνικά όπλα» εγκυμονεί η ανάπτυξη της τεχνητής νοημοσύνης
Οι ερευνητές προειδοποιούν για δύο βασικούς κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη.
Πρώτον, σύμφωνα με την Gladstone AI, τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να χρησιμοποιηθούν ως όπλα. Δεύτερον, η έκθεση αναφέρει ότι υπάρχουν ανησυχίες εντός των εργαστηρίων τεχνητής νοημοσύνης ότι κάποια στιγμή θα μπορούσαν να «χάσουν τον έλεγχο» των ίδιων των συστημάτων που αναπτύσσουν, με «δυνητικά καταστροφικές συνέπειες για την παγκόσμια ασφάλεια».
«Η άνοδος της τεχνητής νοημοσύνης και της AGI [τεχνητή γενική νοημοσύνη] έχει τη δυνατότητα να αποσταθεροποιήσει την παγκόσμια ασφάλεια με τρόπους που θυμίζουν την ανάπτυξη των πυρηνικών όπλων» ανέφερε η έκθεση, προσθέτοντας ότι υπάρχει ο κίνδυνος μιας «κούρσας εξοπλισμών» της τεχνητής νοημοσύνης, συγκρούσεων και θανατηφόρων ατυχημάτων κλίμακας μαζικής καταστροφής».
Η έκθεση του Gladstone AI ζητά νέα μέτρα για την αντιμετώπιση αυτής της απειλής, συμπεριλαμβανομένης της δημιουργίας ενός νέου οργανισμού τεχνητής νοημοσύνης, της επιβολής ρυθμιστικών εγγυήσεων «έκτακτης ανάγκης» και περιορισμών στην ισχύ των υπολογιστών που μπορούν να χρησιμοποιηθούν για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης.
«Υπάρχει σαφής και επείγουσα ανάγκη παρέμβασης της αμερικανικής κυβέρνησης» αναφέρεται, εν κατακλείδι, στην έκθεση. iefimerida.gr
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου
Σχόλια
Δεν βρέθηκαν σχόλια γι'αυτό το άρθρο.
Γίνε ο πρώτος που θα σχολιάσει το άρθρο χρησιμοποιώντας την παρακάτω φόρμα