Κίνδυνοι της τεχνητής νοημοσύνης για την ανθρωπότητα

Ανακαλύψτε τους μεγάλους κινδύνους που εγκυμονεί η Τεχνητή Νοημοσύνη (AI) για την ανθρωπότητα, συμπεριλαμβανομένων πιθανών λύσεων που μπορούν να βοηθήσουν στην προστασία του μέλλοντός μας.

Τον Μάρτιο 22, 2023, το Παύση Giant AI Experiments Δημοσιεύτηκε ανοιχτή επιστολή, καλώντας όλα τα εργαστήρια σε όλο τον κόσμο να σταματήσουν αμέσως την ανάπτυξη γίγαντα AI συστήματα μεγαλύτερα από Το GTP-4 του OpenAI.

Το σκεπτικό πίσω από αυτήν την επιστολή αφορά τους πολυάριθμους κινδύνους που θέτουν τα προηγμένα μοντέλα τεχνητής νοημοσύνης για την ανθρωπότητα, καθιστώντας απαραίτητη την από κοινού ανάπτυξη και εφαρμογή πρωτοκόλλων ασφαλείας για προηγμένα συστήματα τεχνητής νοημοσύνης παγκοσμίως.

Αυτή η ανάρτηση εξετάζει όλους τους κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη για την ανθρωπότητα και εξετάζει πιθανές λύσεις και σε αυτούς τους κινδύνους.

GPT-4 & The 1,000-signature Letter

Για τους περισσότερους ανθρώπους, η τεχνητή νοημοσύνη είναι διασκεδαστική. Μπορείτε να τραβήξετε έξυπνες φωτογραφίες και βίντεο, να επεξεργάζεστε τα πράγματά σας με ευκολία, να εργάζεστε πιο γρήγορα, να λαμβάνετε καλύτερες πληροφορίες, προτάσεις κ.λπ., χάρη στους αλγόριθμους τεχνητής νοημοσύνης.

Ωστόσο, όταν κυκλοφόρησαν τα νέα τον Μάρτιο του 2023 για μια ανοιχτή επιστολή για να σταματήσει για λίγο την ανάπτυξη της τεχνητής νοημοσύνης, αυτό που τράβηξε την προσοχή των περισσότερων ανθρώπων ήταν τα ονόματα πίσω από αυτές τις υπογραφές. Από Elon Musk προς την Ο Steve Wozniak της Apple, και εκατοντάδες άλλοι αξιόλογοι επιστήμονες και κορυφαίοι ερευνητές, η σοβαρότητα αυτής της επιστολής ήταν ξεκάθαρη.

Η επιστολή έχει συγκεντρώσει έκτοτε περισσότερες από 27 χιλιάδες υπογραφές και καταμέτρηση, αλλά η αλήθεια είναι ότι η ανάπτυξη της τεχνητής νοημοσύνης μοιάζει με κούρσα εξοπλισμών. Επιβραδύνεις, χάνεις.

Οι κίνδυνοι της τεχνητής νοημοσύνης για την ανθρωπότητα

Η τεχνητή νοημοσύνη αγγίζει πολλούς τομείς της ιδιωτικής και επαγγελματικής ζωής των ανθρώπων, ανάλογα με το ποιος είσαι και τι κάνεις. Ακολουθεί μια λίστα με τους σημαντικότερους κινδύνους της τεχνητής νοημοσύνης για την ανθρωπότητα γενικά.

  1. Εκτοπισμός Εργασίας & Κρίση Ανεργίας: Η πιθανή μετατόπιση ανθρώπινων εργαζομένων σε όλα τα είδη επαγγελμάτων είναι μία από τις κύριες ανησυχίες σχετικά με την τεχνητή νοημοσύνη. Εκτός από την απώλεια θέσεων εργασίας, αυτό μπορεί να οδηγήσει σε κρίσεις στις πληγείσες κοινωνίες, κοινωνικοοικονομικές ανισότητες και άλλες αρνητικές επιπτώσεις στην κοινωνία.
  2. Ηθικές ανησυχίες: Από τους προκατειλημμένους αλγόριθμους έως την απώλεια της ιδιωτικής ζωής και την έλλειψη λογοδοσίας, οι ηθικές ανησυχίες είναι ένας άλλος σημαντικός κίνδυνος που θέτει η τεχνητή νοημοσύνη για την ανθρωπότητα. Ποιος φταίει όταν ένας οδηγός τεχνητής νοημοσύνης πληγώνει ή σκοτώνει έναν πεζό; Ποιος ευθύνεται για μια λάθος ιατρική διάγνωση από AI; Και ποιος θα πρέπει να λογοδοτήσει για άλλες ακούσιες συνέπειες, όπως όταν η τεχνητή νοημοσύνη βλάπτει ακούσια; Καθώς περισσότερα ρομπότ με τεχνητή νοημοσύνη και οχήματα αυτόνομης οδήγησης γίνονται πραγματικότητα, αυτοί οι κίνδυνοι θα γίνουν κυρίαρχοι.
  3. Κίνδυνοι ασφάλειας: Η εξάρτηση από την τεχνητή νοημοσύνη για ορισμένα καθήκοντα ασφαλείας, όπως η επιτήρηση, η ασφάλεια στον κυβερνοχώρο και τα αυτόνομα όπλα ανοίγει πολλά πιθανά κατορθώματα. Τα αυτόνομα όπλα θα μπορούσαν να προκαλέσουν σοβαρές απώλειες, για παράδειγμα, επειδή οι κακοί ηθοποιοί θα μπορούσαν να δηλητηριάσουν τα δεδομένα στα οποία βασίζεται η τεχνητή νοημοσύνη, οδηγώντας την να λάβει αποφάσεις που θα μπορούσαν να οδηγήσουν σε σοβαρά θύματα ή να κλιμακώσουν τις ήδη τεταμένες συγκρούσεις.
  4. Απώλεια Ανθρώπινου Ελέγχου: Τα απλά συστήματα τεχνητής νοημοσύνης που προσφέρουν προτάσεις σχεδίασης είναι εντάξει, καθώς αναπόφευκτα λειτουργούν ως βοηθοί ειδικών στον άνθρωπο. Αλλά με πιο σύνθετα μοντέλα τεχνητής νοημοσύνης, τα οποία μπορούν να λάβουν αποφάσεις με βάση όλο και μεγαλύτερες ποσότητες δεδομένων, ο κίνδυνος ο ανθρώπινος έλεγχος και η εποπτεία να γίνουν λιγότερο σχετικοί είναι μεγάλος. Αυτό μπορεί να οδηγήσει σε απρόβλεπτες περιστάσεις, γιατί, για παράδειγμα, θα ήταν συνετό να ακολουθήσετε τις συστάσεις της τεχνητής νοημοσύνης, αλλά είναι πραγματικά σωστές σε αυτήν την περίπτωση;
  5. Δεξιότητες & Οικονομική Εξάρτηση: Η εξάρτηση από την τεχνητή νοημοσύνη για την τεχνογνωσία και τις οικονομικές υπηρεσίες της κοινωνίας εγκυμονεί άλλο ένα σύνολο κινδύνων. Πρώτον, η εξάρτηση από την τεχνητή νοημοσύνη για πληροφορίες μπορεί να οδηγήσει σε μειωμένες δυνατότητες σκέψης για τους ανθρώπους, καθώς το σύστημα αναλαμβάνει αυτά τα καθήκοντα. Δεύτερον, η εξάρτηση από την τεχνητή νοημοσύνη για υπηρεσίες και κρίσιμες οικονομικές υποδομές ανοίγει αυτή την κοινωνία σε επιθέσεις στον κυβερνοχώρο και σε άλλες απειλές που σχετίζονται με την τεχνητή νοημοσύνη.
  6. Deepfakes & Παραπληροφόρηση: Τα Deepfakes κατέπληξαν τον κόσμο με τις εκπληκτικές δυνατότητές τους μερικά χρόνια πριν, αλλά αυτό ήταν μόνο η αρχή. Καθώς τα μοντέλα παραγωγής φωτογραφιών και βίντεο τεχνητής νοημοσύνης βελτιώνονται κάθε μέρα, θα έρθει η μέρα που θα είναι πολύ δύσκολο –αν όχι αδύνατο– να διαφοροποιηθεί το περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη από τις πραγματικές εικόνες και βίντεο. Και όπως πάντα, οι πιθανές εφαρμογές του για παραπληροφόρηση, δυσφήμιση, εκβιασμό, εκβιασμό, πορνό εκδίκησης, απάτη, δολοφονία χαρακτήρων και κοινωνική μηχανική είναι απεριόριστες.
  7. Οικονομική Ανισότητα & Κοινωνική Ανισότητα: Ο κόσμος είναι ήδη πολύ χωρισμένος σε δύο τάξεις των εχόντων και των μη εχόντων, οδηγώντας σε όρους όπως η ελίτ του 1% και η καταπιεσμένη κατά 99%. Καθώς η τεχνητή νοημοσύνη βασίζεται σε κεφάλαια για την ανάπτυξη και την οικονομική εφαρμογή, παραμένει υψηλός ο κίνδυνος ακόμη και μικρότερο ποσοστό του πληθυσμού να καταλήξει να επωφεληθεί οικονομικά και μαζικά από τις οικονομικές αποδόσεις της τεχνητής νοημοσύνης που επενδύονται στις αγορές.
  8. Κοινωνική απομόνωση: Πολλοί χρήστες μέσων κοινωνικής δικτύωσης έχουν ήδη κολλήσει στα smartphone τους, χάρη στους αλγόριθμους AI που τους δείχνουν ακριβώς αυτό που θέλουν να δουν και τους εμπλέκουν περαιτέρω με άλλους διασκεδαστικούς τρόπους. Αυτή η συναισθηματική εξάρτηση έχει δημιουργήσει κάποιο επίπεδο εθισμού και επακόλουθη κοινωνική απομόνωση, με πολλούς χρήστες να αισθάνονται άνετα μόνοι τους με τα τηλέφωνά τους. Επίσης, καθώς περισσότερες υπηρεσίες τεχνητής νοημοσύνης αντικαθιστούν τους ανθρώπους στη ζωή ενός ατόμου, θα έχουν επίσης μειωμένες φυσικές αλληλεπιδράσεις.
  9. Χειρισμός και επιρροή: Οι αλγόριθμοι τεχνητής νοημοσύνης χρησιμοποιούνται ήδη παντού για τον επιτυχή χειρισμό των αποτελεσμάτων των μηχανών αναζήτησης, των ροών κοινωνικής δικτύωσης, των εικονικών βοηθών και των chatbot. Είναι μόνο θέμα χρόνου πριν κάποιος σκοντάψει σε έναν καινοτόμο τρόπο να μεγιστοποιήσει αυτά τα αποτελέσματα για κέρδος ή διασκέδαση.
  10. Κίνδυνοι για την υγεία και την ασφάλεια: Η εξάρτηση από την τεχνητή νοημοσύνη για την υγειονομική περίθαλψη ενέχει επίσης κινδύνους που μπορεί να θέσουν σε κίνδυνο την υγεία και την ευημερία ενός ασθενούς. Περιλαμβάνουν την πιθανή εσφαλμένη διάγνωση της νόσου και τη λανθασμένη θεραπεία που βασίζεται σε προκατειλημμένα ή μεροληπτικά δεδομένα εκπαίδευσης. Μια άλλη πιθανότητα είναι η σκόπιμη δηλητηρίαση των δεδομένων του ασθενούς από έναν κακό ηθοποιό για να πραγματοποιηθεί μια ανθυγιεινή ή ακόμα και θανατηφόρα σύσταση θεραπείας από το AI.
  11. Απώλεια της ανθρώπινης δημιουργικότητας: Τα μοντέλα μεγάλων γλωσσών με δυνατότητες δημιουργίας κειμένου, εικόνας και βίντεο βελτιώνονται κάθε μέρα, με τα GPT-4, Stable Diffusion και Midjourney 5 του OpenAI να πρωτοστατούν επί του παρόντος. Αυτά τα συστήματα καθιστούν ευκολότερη και γρηγορότερη τη δημιουργία όλων των τύπων περιεχομένου που συνήθως αφήνονται για καλλιτέχνες και φυσικά ταλαντούχους, από μουσική μέχρι γραπτό κείμενο, ποιήματα, πίνακες ζωγραφικής, βίντεο και σκίτσα με μολύβι. Καθώς γίνονται καλύτεροι και γίνονται διαθέσιμοι σε όλους, ο αρχετυπικός ανθρώπινος δημιουργός γίνεται όλο και λιγότερο σχετικός στην κοινωνία.
  12. Υπαρξιακούς Κίνδυνους: Ο κίνδυνος ενός συστήματος Τεχνητής Γενικής Νοημοσύνης (AGI) με δυνατότητες πολύ πέρα ​​από αυτές οποιουδήποτε ανθρώπου και με πόρους τόσο ισχυρούς που μπορεί να αποφασίσει να υποτάξει ή να βλάψει τους ανθρώπους με κάποιο τρόπο είναι πολύ πραγματικός.
  13. Έλλειψη διαφάνειας: Κανείς δεν καταλαβαίνει πραγματικά πώς λειτουργεί η τεχνητή νοημοσύνη, ειδικά όταν οι αλγόριθμοι είναι πολύπλοκοι. Αυτό σημαίνει ότι σχεδόν κανείς δεν γνωρίζει ακριβώς πώς λαμβάνονται ορισμένες σημαντικές αποφάσεις, που οδηγούν στον κίνδυνο μεροληπτικών ή μεροληπτικών αποτελεσμάτων, μη ανιχνεύσιμων τρωτών σημείων ασφαλείας και κακόβουλων επιθέσεων και μη λογοδοσίας των αποτελεσμάτων.
  14. Μειωμένη Ανθρώπινη Αξία & Αυτονομία: Προβλέποντας και προτείνοντας πράγματα για ανθρώπους, η τεχνητή νοημοσύνη αναλαμβάνει συνεχώς τη λήψη αποφάσεων και τον έλεγχο των ανθρώπων. Επιπλέον, αυτό θα μπορούσε να οδηγήσει σε ακόμη καλύτερα ανεπτυγμένα μηχανήματα ή μοντέλα που είναι πέρα ​​από τον ανθρώπινο έλεγχο. Και αυτό θα μειώσει την ανθρώπινη συνάφεια σε πολλούς τομείς και επαγγέλματα, καθώς και θα υποτιμήσει τις ανθρώπινες δεξιότητες, την τεχνογνωσία και την κοινωνική συνεισφορά από διαφορετικά επαγγέλματα σε κάθε κοινωνία.
  15. Ακούσιες συνέπειες: Αυτός είναι ίσως ο πιο επικίνδυνος από όλους τους κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη για την ανθρωπότητα. Ποιες είναι οι ανεπιθύμητες συνέπειες; Κανείς δεν ξέρει. Κανείς δεν μπορεί να ξέρει μέχρι να είναι πολύ αργά. Αυτό είναι τουλάχιστον, θεωρητικά.

Πιθανές λύσεις για τους κινδύνους της τεχνητής νοημοσύνης

Οι κίνδυνοι της τεχνητής νοημοσύνης για την ανθρωπότητα είναι πολυδιάστατοι και αυτό σημαίνει ότι οι λύσεις σε αυτούς τους κινδύνους θα πρέπει να είναι πολύπλευρες. Ακολουθούν μερικές από τις πιθανές λύσεις που θα βοηθήσουν στην πρόληψη των κινδύνων της τεχνητής νοημοσύνης για την ανθρωπότητα ή στη μείωση τους.

  • Ισχυρή ρύθμιση και διακυβέρνηση: Οι κυβερνήσεις πρέπει να ιδρύσουν ρυθμιστικούς φορείς για τη διαχείριση και τη ρύθμιση της ανάπτυξης της τεχνητής νοημοσύνης με ηθικά πρότυπα, διαφάνεια και υπευθυνότητα.
  • Διεθνής Συνεργασία: Οι κυβερνήσεις από όλο τον κόσμο πρέπει να συνεργαστούν για την ανάπτυξη ηθικών κατευθυντήριων γραμμών για την ανάπτυξη της τεχνητής νοημοσύνης και τη ρύθμιση των τοπικών βιομηχανιών τεχνητής νοημοσύνης.
  • Δημόσια Εκπαίδευση & Ευαισθητοποίηση: Η εκπαίδευση του κοινού σχετικά με την τεχνητή νοημοσύνη, τα οφέλη και τους πιθανούς κινδύνους της θα βοηθήσει επίσης άτομα και επιχειρήσεις να λάβουν τις σωστές αποφάσεις.
  • Επεξηγήσιμη τεχνητή νοημοσύνη (XAI): Όπως υποδηλώνει το όνομα, το XAI ή το eXplainable AI είναι μια προσέγγιση ανάπτυξης τεχνητής νοημοσύνης που δίνει τη δυνατότητα στους ανθρώπους να κατανοήσουν το σκεπτικό πίσω από τις προβλέψεις του μοντέλου.
  • Υπεύθυνη τεχνητή νοημοσύνη για κοινωνικό καλό: Οι καπιταλιστές που αναζητούν κέρδος θα το απορρίψουν αυτό, αλλά είναι ένα από τα καλύτερα πράγματα που μπορεί να κάνει η ανθρωπότητα για τον εαυτό της. Γιατί να μην δημιουργήσετε έναν δωρεάν γιατρό ή βοηθό AI για όλους; Τι θα λέγατε για τις υποστηρικτικές τεχνολογίες, τη διατήρηση του περιβάλλοντος, την υποστήριξη της ψυχικής υγείας, τις κοινωνικές υπηρεσίες, την επισιτιστική ασφάλεια και την κοινωνική πρόνοια, όλα που υποστηρίζονται από την Κοινωνική AI;
  • Συνεχής Παρακολούθηση και Αξιολόγηση: Κάθε ενδιαφερόμενος τεχνολόγος, ερευνητής ή επιστήμονας πρέπει να παρακολουθεί την ανάπτυξη της τεχνητής νοημοσύνης. Επειδή, ενώ οι μεγάλες εταιρείες μπορούν εύκολα να ρυθμιστούν και να υποχρεωθούν να ακολουθούν τις ηθικές οδηγίες, εξακολουθούν να υπάρχουν εκείνες οι απρόβλεπτες ομάδες ή ομάδες που μπορεί να αποφασίσουν να σοκάρουν τον κόσμο.

Συμπέρασμα

Ενώ η τεχνητή νοημοσύνη έχει τη δυνατότητα να επηρεάσει δραματικά το μέλλον της ανθρωπότητας, η κατανόηση των κινδύνων της είναι επίσης κρίσιμης σημασίας, γιατί μόνο έτσι μπορούμε να εργαστούμε με ασφάλεια και δίκαια για τα οφέλη της για όλους, μετριάζοντας ταυτόχρονα αυτούς τους κινδύνους.

Nnamdi Okeke

Nnamdi Okeke

Ο Nnamdi Okeke είναι ένας λάτρης των υπολογιστών που του αρέσει να διαβάζει ένα ευρύ φάσμα βιβλίων. Έχει προτίμηση στο Linux έναντι των Windows/Mac και το χρησιμοποιεί
Το Ubuntu από τις πρώτες μέρες του. Μπορείτε να τον πιάσετε στο twitter μέσω bongotrax

Άρθρα: 298

Λάβετε είδη τεχνολογίας

Τεχνικές τάσεις, τάσεις εκκίνησης, κριτικές, διαδικτυακό εισόδημα, διαδικτυακά εργαλεία και μάρκετινγκ μία ή δύο φορές το μήνα