στέλεχος Η σύγκρουση μεταξύ της δύναμης της τεχνητής νοημοσύνης και των δημοκρατικών κανόνων – Securities.io
Συνδεθείτε μαζί μας

Τεχνητή νοημοσύνη

Η σύγκρουση μεταξύ της δύναμης της τεχνητής νοημοσύνης και των δημοκρατικών κανόνων

mm

Το Securities.io διατηρεί αυστηρά συντακτικά πρότυπα και ενδέχεται να λαμβάνει αποζημίωση από τους αναθεωρημένους συνδέσμους. Δεν είμαστε εγγεγραμμένοι επενδυτικοί σύμβουλοι και αυτό δεν αποτελεί επενδυτική συμβουλή. Δείτε το θυγατρική εταιρεία.

Φωτορεαλιστική διαιρεμένη εικόνα ενός λαμπερού ψηφιακού προσώπου Τεχνητής Νοημοσύνης που συνδέεται μέσω νευρωνικών δικτύων με το φωτισμένο κτίριο του Καπιτωλίου των ΗΠΑ το σούρουπο, συμβολίζοντας τη διακυβέρνηση της Τεχνητής Νοημοσύνης και τους δημοκρατικούς θεσμούς.

Καθώς η τεχνολογία τεχνητής νοημοσύνης γίνεται ολοένα και πιο διαδεδομένη και ισχυρή, γίνεται ολοένα και πιο δύσκολο να βρεθεί μια ισορροπία μεταξύ των δημοκρατικών αξιών και της τεχνολογικής προόδου. Από τη μία πλευρά, ποτέ δεν ήταν ευκολότερο για τους ανθρώπους να μοιράζονται τα οράματά τους με τις μάζες.

Ωστόσο, η Τεχνητή Νοημοσύνη δεν διαθέτει προστατευτικά κιγκλιδώματα, πράγμα που σημαίνει ότι συνεχώς ωθεί τα όρια σχεδόν κάθε κοινωνικής μέτρησης. Δείτε πώς οι προγραμματιστές Τεχνητής Νοημοσύνης συνεχίζουν να προσπαθούν να δημιουργήσουν αρμονία μεταξύ των δυνατοτήτων της Τεχνητής Νοημοσύνης και των δημοκρατικών αξιών, και γιατί μπορεί να είναι αδύνατο να το κάνουν.

Περίληψη: Η κυβέρνηση συνεχίζει να ασκεί πιέσεις στις εταιρείες τεχνητής νοημοσύνης να μειώσουν τα προστατευτικά τους κιγκλιδώματα. Αυτό το σενάριο έχει οδηγήσει σε εσωτερικές συγκρούσεις, έντονες συζητήσεις και εταιρείες όπως η Anthropic αντιμετωπίζουν ομοσπονδιακούς περιορισμούς χρήσης και αποφάσεις σταδιακής κατάργησης.

Πώς η Τεχνητή Νοημοσύνη αναδιαμορφώνει την προστασία της ελευθερίας του λόγου

Η τεχνητή νοημοσύνη έχει επηρεάσει σε μεγάλο βαθμό την ελευθερία του λόγου. Καταρχάς, έχει διευκολύνει τους ανθρώπους να δημιουργούν ζωντανές απεικονίσεις του οράματός τους και να τις μοιράζονται με το κοινό μέσω των μέσων κοινωνικής δικτύωσης. Έχει επίσης μειώσει το κόστος παραγωγής σχεδόν στο μηδέν, επιτρέποντας σε κάθε οργανισμό να υπερασπίζεται τον σκοπό του εικονικά.

Τα εργαλεία τεχνητής νοημοσύνης παρέχουν πολλά οφέλη, συμπεριλαμβανομένης της δυνατότητας εύκολης τροποποίησης και προσαρμογής των μηνυμάτων τους ώστε να ανταποκρίνονται σε συγκεκριμένα δημογραφικά στοιχεία. Επίσης, το περιεχόμενο τεχνητής νοημοσύνης έχει, μέχρι στιγμής, εξεταστεί υπό την προστασία της Πρώτης Τροπολογίας. Ως εκ τούτου, επιτρέπει στους δημιουργούς ανοιχτή έκφραση.

Αντίθετα, η Τεχνητή Νοημοσύνη έχει οδηγήσει σε μια πλημμύρα παραπληροφόρησης. Είναι πιο δύσκολο από ποτέ για τους ανθρώπους να διακρίνουν ποιες πληροφορίες προέρχονται από έναν πραγματικό ειδικό και ποιες δημιουργήθηκαν από έναν αλγόριθμο. Δυστυχώς, τα αποτελέσματα είναι μια διάβρωση της πίστης στα συστήματα.

Πώς οι αλγόριθμοι των μέσων κοινωνικής δικτύωσης ενισχύουν την παραπληροφόρηση μέσω της τεχνητής νοημοσύνης

Επιτείνοντας το χάος, οι αλγόριθμοι των μέσων κοινωνικής δικτύωσης μπορούν να προωθήσουν τα deepfakes, καθώς είναι συχνά πιο αμφιλεγόμενα, με αποτέλεσμα περισσότερη αλληλεπίδραση. Αυτό δημιουργεί έναν κύκλο όπου τα ψεύδη εμφανίζονται πιο εμφανώς από τις πραγματικές πληροφορίες. Δυστυχώς, καμία εντολή δεν αναφέρει ότι η παραπληροφόρηση της Τεχνητής Νοημοσύνης πρέπει να χαρακτηρίζεται ως επισημασμένη.

Τεχνητή Νοημοσύνη και Συμμετοχή των Πολιτών σε Δημοκρατικά Συστήματα

Η τεχνητή νοημοσύνη ανοίγει τον δρόμο για ευρύτερη συμμετοχή των πολιτών. Τα συστήματά της διευκολύνουν την κυβέρνηση και τους πολίτες να επικοινωνούν τις ιδέες τους και να παρακολουθούν τη δημόσια συναίνεση. Επιπλέον, έχει αποδειχθεί χρήσιμη στη σύνοψη πολύπλοκης νομοθεσίας και στην ανταλλαγή ζωτικών δεδομένων για την ενημέρωση των πολιτών.

Κίνδυνοι επιτήρησης από την τεχνητή νοημοσύνη και ανησυχίες για την ιδιωτικότητα των Δημοκρατικών

Υπάρχουν αρκετές κίνδυνοι επιτήρησης που δημιουργεί η Τεχνητή Νοημοσύνη παράλληλα με την προώθηση της συμμετοχής. Αυτά τα συστήματα μπορούν εύκολα να παρακολουθούν τους ψηφοφόρους. Υπάρχουν συστήματα Τεχνητής Νοημοσύνης που μπορούν να εξετάσουν το πλήρες ψηφιακό σας αποτύπωμα και να παρέχουν μια αξιολόγηση των πολιτικών σας απόψεων με βάση τη δραστηριότητά σας στο διαδίκτυο.

Επιπλέον, αυτή η τεχνολογία μπορεί να χρησιμοποιηθεί για να προσδιοριστεί ποιος είναι ένα άτομο με βάση το ψηφιακό του αποτύπωμα ή τις προτιμήσεις του. Όλα αυτά τα εργαλεία δεν απαιτούν ένταλμα όπως οι προηγούμενες τεχνολογίες. Ως εκ τούτου, η πιθανότητα κατάχρησης αυξάνεται.

Ο ρόλος της Τεχνητής Νοημοσύνης στις σύγχρονες εκλογές και την εκλογική ακεραιότητα

Η τεχνητή νοημοσύνη προσφέρει πολλά οφέλη στην εκλογική διαδικασία. Πρώτον, διευκολύνει την παρακολούθηση των αποτελεσμάτων. Τα συστήματα τεχνητής νοημοσύνης μπορούν επίσης να βοηθήσουν στην παρακολούθηση τυχόν διαταραχών όσον αφορά τον εκφοβισμό ή τις απειλές των ψηφοφόρων.

Τα Deepfakes της Τεχνητής Νοημοσύνης και η Κρίση της Πολιτικής Εμπιστοσύνης

Από όλη την παραπληροφόρηση σχετικά με την Τεχνητή Νοημοσύνη που προκαλεί χάος σήμερα, τα κύρια προβλήματα προκύπτουν γύρω από τα deepfakes. Αυτή η τεχνολογία επιτρέπει στους ανθρώπους να δημιουργούν εύκολα αντίγραφα δημόσιων αξιωματούχων, επαγγελματιών του κλάδου ή οποιουδήποτε επιθυμούν, συμπεριλαμβανομένων πολιτικών υποψηφίων.

Πηγή - BBC

Πηγή - BBC

Τα πολιτικά deepfakes συνεχίζουν να δημιουργούν πονοκεφάλους στους αξιωματούχους και να διαστρεβλώνουν τις πληροφορίες στο κοινό. Το πρόβλημα είναι ότι αυτά τα fakes έχουν γίνει σχεδόν αδιαχώριστα από τα πραγματικά. Ως εκ τούτου, έχουν υιοθετηθεί από σχεδόν κάθε είδους ομάδες που επιδιώκουν να δημιουργήσουν χάος ή να σπείρουν τους σπόρους δυσπιστίας στο κοινό.

Το «μέρισμα του ψεύτη» και η διάβρωση της δημόσιας εμπιστοσύνης

Ο συνεχής βομβαρδισμός με deepfakes τεχνητής νοημοσύνης έχει ένα άλλο απροσδόκητο αποτέλεσμα - το μέρισμα του ψεύτη. Αυτός ο όρος αναφέρεται σε ένα περιστατικό που έχει γνήσια γεγονότα και αποδεικτικά στοιχεία προς υποστήριξη, αλλά εξακολουθεί να απορρίπτεται από τους κατηγορούμενους ως deep fake τεχνητής νοημοσύνης.

Αυτή η στρατηγική υποβαθμίζει την εμπιστοσύνη στα συστήματα και δημιουργεί ένα σενάριο όπου ο μέσος άνθρωπος δεν μπορεί να λάβει τεκμηριωμένες αποφάσεις. Επίσης, καταστρέφει κάθε πιθανότητα εύλογης συζήτησης, καθώς όλες οι πλευρές είναι πολωμένες σε θέματα λόγω παραπληροφόρησης.

Παραδείγματα πραγματικών φαινομένων τεχνητής νοημοσύνης σε εκλογές

Υπάρχουν αρκετά πρόσφατα παραδείγματα deepfakes που προκαλούν χάος κατά τη διάρκεια εκλογών. Ένα αξιοσημείωτο περιστατικό συνέβη στις 21 Ιανουαρίου 2024, όταν χρησιμοποιήθηκε μια ρομποτική κλήση deepfake. Το σύστημα τεχνητής νοημοσύνης δημιουργήθηκε για να επικοινωνεί με εγγεγραμμένους Δημοκρατικούς.

Όταν απάντησαν, ένα Η βαθιά ψεύτικη φωνή του Προέδρου Τζο Μπάιντεν χρησιμοποιήθηκε για να τους παροτρύνει να «φυλάξτε την ψήφο σας για τον Νοέμβριο«. Οι αναφορές δείχνουν ότι το μήνυμά του έφτασε σε 20,000 ανθρώπους, με αποτέλεσμα πολλοί να επιλέξουν να μην συμμετάσχουν στις εκλογές, όπως ανέφερε το μήνυμα.»

Όταν έγιναν γνωστές οι αναφορές για τις αυτοματοποιημένες κλήσεις, ξεκίνησε έρευνα. Ωστόσο, αυτό είχε ήδη συμβεί μετά την ολοκλήρωση των εκλογών και δεν είχαν ανακατανεμηθεί τα ψηφοδέλτια. Αυτό το σενάριο είναι μόνο ένα από τα πολλά που υπογραμμίζουν τους κινδύνους της ψευδούς παρέμβασης στις εκλογές μέσω της Τεχνητής Νοημοσύνης.

Σκάνδαλο Deepfake στις εκλογές του 2023 στη Σλοβακία

Ένα άλλο παράδειγμα παρέμβασης της Τεχνητής Νοημοσύνης στις εκλογές συνέβη το... Εκλογές της Σλοβακίας το 2023Σε αυτό το περιστατικό, εμφανίστηκε ένα ψεύτικο βίντεο που έδειχνε τον ηγέτη της Προοδευτικής Σλοβακίας, Μίχαλ Σιμέτσκα, να συζητά για τη νοθεία των εκλογών. Το βίντεο αργότερα χαρακτηρίστηκε ψεύτικο, αλλά μόνο αφού έλαβε εκατομμύρια προβολές και κοινοποιήσεις στο TikTok, το Facebook και το Telegram.

Πώς να εντοπίσετε τα Deepfakes της Τεχνητής Νοημοσύνης το 2026

Η ανίχνευση deep fakes δεν είναι εύκολη υπόθεση. Παλαιότερα, η τεχνολογία άφηνε πολλά σφάλματα, όπως αφύσικο ανοιγοκλείσιμο των ματιών, περίεργο φωτισμό ή ακόμα και την εμφάνιση συγχρονισμού χειλιών. Η έρευνα δείχνει ότι οι άνθρωποι συχνά δεν είναι καλοί στην ανίχνευση deepfakes υψηλής ποιότητας, και συχνά εκτελούνται σε σχεδόν τυχαία επίπεδα ανάλογα με το πλαίσιο και τη μέθοδο.

Ένας τρόπος για να διαπιστώσετε εάν ένα βίντεο είναι deepfake είναι να αναζητήσετε τα καρέ εικόνας χρησιμοποιώντας την Google για να βρείτε το αρχικό περιεχόμενο. Θα προσπαθήσουν επίσης να χρησιμοποιήσουν τον ήχο για να αναζητήσουν αφύσικους ήχους. Σε ορισμένες περιπτώσεις, είναι αδύνατο να εντοπιστεί ένα deep fake υψηλής ποιότητας χωρίς ορισμένα τεχνικά εργαλεία.

Κορυφαία εργαλεία ανίχνευσης Deepfake με τεχνητή νοημοσύνη και οι περιορισμοί τους

Κατά ειρωνικό τρόπο, τα εργαλεία τεχνητής νοημοσύνης είναι η καλύτερη επιλογή που μπορείτε να χρησιμοποιήσετε όταν προσπαθείτε να προσδιορίσετε τη νομιμότητα ενός βίντεο. Αυτές οι επιλογές περιλαμβάνουν Deepware Scanner, Υπερασπιστής της πραγματικότητας, Της Microsoft Επαληθευτής βίντεο, Και πολλά άλλα.

Αυτά τα πρωτόκολλα διαθέτουν ιδιόκτητους αλγόριθμους που έχουν σχεδιαστεί για να εντοπίζουν τυχόν ασυνέπειες ή μοτίβα εικονοστοιχείων που εντοπίζονται σε καρέ βίντεο με τεχνητή νοημοσύνη. Αυτά τα συστήματα μπορούν επίσης να διασταυρώσουν τα περιστατικά με τοπικά δεδομένα, επιτρέποντάς τους να αποκαλύψουν μια παρέμβαση από την τεχνητή νοημοσύνη.

Τα καλύτερα εργαλεία ανίχνευσης τεχνητής νοημοσύνης δεν είναι τέλεια, με πρωτόκολλα όπως Βιο-ταυτότητα σημειώνοντας ποσοστό 98% σε πρόσφατες δοκιμές. Το γεγονός ότι το 2% των deepfakes ήταν διακριτά ακόμη και από άλλα συστήματα τεχνητής νοημοσύνης προκαλεί ανησυχία στο μέλλον.

Ο Γραμματισμός στα Μέσα ως Άμυνα κατά της Χειραγώγησης της Τεχνητής Νοημοσύνης

Ίσως ο καλύτερος τρόπος για την καταπολέμηση των deepfakes είναι να επικεντρωθούμε στην προώθηση της παιδείας στα μέσα ενημέρωσης στις μάζες. Είναι απολύτως απαραίτητο να υπάρχει μια υποχρεωτική ετικέτα που να διευκολύνει τον προσδιορισμό του εάν ένα βίντεο είναι deepfake ή νόμιμο.

Γιατί η αυτορρύθμιση των μεγάλων τεχνολογικών εταιρειών έχει αποτύχει στη διακυβέρνηση της τεχνητής νοημοσύνης

Η ιστορία έχει δείξει ότι οι εταιρείες τεχνολογίας δεν μπορούν να αυτορρυθμιστούν. Η εστίασή τους είναι στο κέρδος και την καινοτομία. Αυτή η επιθυμία μπορεί να προκύψει εις βάρος της ιδιωτικότητας και της αλήθειας. Ως εκ τούτου, δεν υπάρχει σενάριο στο οποίο μια εταιρεία τεχνολογίας θα είναι αποτελεσματικά σε θέση να αποτρέψει τα deepfakes από το να φτάσουν στους ακολούθους της.

Προσπάθειες ρύθμισης της τεχνητής νοημοσύνης από την κυβέρνηση το 2026

Καθώς οι εταιρείες τεχνολογίας δεν είναι σε θέση να παρέχουν την απαιτούμενη προστασία έναντι αυτών των ζητημάτων, οι κυβερνήσεις έχουν αρχίσει να αναλαμβάνουν δράση. Ωστόσο, αυτό το σενάριο δεν είναι ιδανικό, καθώς οι κυβερνήσεις δεν κατανοούν την τεχνολογία με τρόπο που να τους επιτρέπει να δημιουργούν δικλείδες ασφαλείας που δεν καταπνίγουν την καινοτομία.

Εταιρείες Τεχνητής Νοημοσύνης εναντίον Κυβέρνησης: Η Σύγκρουση Πολιτικής του 2026

Το ρήγμα μεταξύ κυβερνήσεων και παρόχων Τεχνητής Νοημοσύνης έχει αρχίσει να διευρύνεται τους τελευταίους μήνες. Ενώ οι νομοθέτες είναι πρόθυμοι να προστατεύσουν το κοινό από τις ψευδείς πληροφορίες και την παραπληροφόρηση, ο στρατός συνεχίζει να πιέζει για την πλήρη ενσωμάτωση των εργαλείων Τεχνητής Νοημοσύνης στο οπλοστάσιό του.

Αυτή η επιθυμία να χρησιμοποιηθεί αυτή η τεχνολογία ως μέρος της αλυσίδας εξόντωσης έχει οδηγήσει σε αρκετές δημόσιες διαμάχες μεταξύ εταιρειών και της κυβέρνησης των ΗΠΑ. Ακολουθούν μερικά από τα πιο πρόσφατα περιστατικά, που υπογραμμίζουν τους κινδύνους και την πιθανή σκοτεινή πλευρά του πολέμου μέσω της Τεχνητής Νοημοσύνης.

Anthropic εναντίον του Υπουργείου Άμυνας των ΗΠΑ

Ανθρωπικός βρίσκεται εν μέσω δημόσιας διαμάχης με το Υπουργείο Άμυνας των ΗΠΑ σχετικά με τη χρήση του μοντέλου τεχνητής νοημοσύνης Claude. Η διαφωνία περιστρέφεται γύρω από την παραχώρηση απεριόριστης πρόσβασης στην τεχνητή νοημοσύνη, η οποία θα μπορούσε να οδηγήσει στη χρήση του συστήματος για τη διεξαγωγή μαζικής εγχώριας παρακολούθησης.

Η Anthropic, η οποία ξεκίνησε το 2021, έχει επίσης αρνηθεί την πλήρη πρόσβαση λόγω ανησυχιών σχετικά με την αξιοπιστία των συστημάτων στόχευσης τεχνητής νοημοσύνης. Και οι δύο αυτές κόκκινες γραμμές καθορίστηκαν από τον Διευθύνοντα Σύμβουλο της εταιρείας, Dario Amodei, αναφέροντας την αναξιοπιστία ως κύρια ανησυχία.

Προτεινόμενα όρια της Anthropic στη χρήση της στρατιωτικής τεχνητής νοημοσύνης

Για αυτό το μέρος, το Πεντάγωνο υποστηρίζει ότι αυτή η σύμβαση ύψους 200 εκατομμυρίων δολαρίων με το Πεντάγωνο θα πρέπει να περιλαμβάνει απεριόριστη πρόσβαση. Η Anthropic έκανε κάποιες παραχωρήσεις κατά τη διάρκεια της συζήτησης, συμπεριλαμβανομένης της άδειας χρήσης των συστημάτων τεχνητής νοημοσύνης σε πυραυλικούς και αμυντικούς σκοπούς. Δήλωσε μάλιστα ότι θα ήταν εντάξει με τις επιχειρήσεις της NSA, εφόσον εξαιρούσαν τη μαζική παρακολούθηση πολιτών των ΗΠΑ.

Γιατί το Πεντάγωνο απέρριψε τους περιορισμούς του Anthropic

Ωστόσο, αυτό δεν ήταν αρκετό για τους αξιωματούχους του Πενταγώνου. Λίγο αφότου η Anthropic διέψευσε αυτόν τον ισχυρισμό, η κυβέρνηση Τραμπ απαγόρευσε τη χρήση των προϊόντων της από οποιονδήποτε ομοσπονδιακό οργανισμό. Συγκεκριμένα, ο πρόεδρος χαρακτήρισε τα προϊόντα της Anthropic ως «κίνδυνο εθνικής ασφάλειας». Η αναφορά γύρω από τη διαμάχη αναφέρθηκε επίσης στον Νόμο περί Αμυντικής Παραγωγής ως πιθανό εργαλείο πίεσης, αν και η ακριβής νομική λογική θα πρέπει να περιγραφεί προσεκτικά, εκτός εάν παρατίθεται άμεσα από την εντολή.

Αυτός ο ελιγμός σημαίνει ότι η Anthropic δεν θα είναι σε θέση να εξασφαλίσει στρατιωτικές ή κυβερνητικές συμβάσεις στο μέλλον, αφήνοντας την εταιρεία σε ένα επισφαλές σενάριο όπου θα πρέπει να επιλέξει μεταξύ των βασικών της πεποιθήσεων και του κέρδους.

Πώς αντέδρασαν το OpenAI και το xAI στην αλλαγή του Πενταγώνου

Η OpenAI, ανταγωνιστής της Anthropic, παρενέβη γρήγορα για να αντικαταστήσει την Anthropic, υποσχόμενη πλήρη συμμόρφωση με το Πεντάγωνο. Ως εκ τούτου, η εταιρεία υπέγραψε μια απόρρητη συμφωνία με την κυβέρνηση, η οποία περιλαμβάνει απεριόριστη νόμιμη χρήση του συστήματος τεχνητής νοημοσύνης της.

Σύγχρονες Στρατιωτικές Εφαρμογές της Τεχνητής Νοημοσύνης

Υπάρχουν ήδη πολλά παραδείγματα συστημάτων Τεχνητής Νοημοσύνης που συμβάλλουν στην αύξηση του ρυθμού και της κλίμακας του πολέμου. Αυτά τα συστήματα έχουν βελτιστοποιηθεί ώστε να λειτουργούν παράλληλα με τον αυξανόμενο αριθμό αυτόνομων συστημάτων, όπως η τεχνολογία σμήνους drones.

Η τεχνητή νοημοσύνη θεωρείται πρωτοποριακή, επειδή μπορεί να συνδυάσει δεδομένα από μια τεράστια σειρά αισθητήρων για να παρέχει ταχύτερη στόχευση και πολλά άλλα. Είναι επίσης ζωτικής σημασίας στους τομείς της εφοδιαστικής και των οικονομικών του στρατού, όπου μπορεί να βοηθήσει στη διασφάλιση της προληπτικής συντήρησης και άλλων βασικών εργασιών εντός χρονοδιαγράμματος.

Χρήση συστημάτων στόχευσης τεχνητής νοημοσύνης από το Ισραήλ στη Γάζα

Η χρήση συστημάτων στόχευσης με τεχνητή νοημοσύνη τονίστηκε στην εκστρατεία του Ισραήλ στη Γάζα. Αυτές οι επιχειρήσεις αξιοποίησαν εργαλεία όπως Λεβάντα να διασταυρωθεί η κίνηση ενός ατόμου με πιθανές μαχητικές συμπεριφορές.

Αυτό το εργαλείο επέτρεψε στον ισραηλινό στρατό να παρακολουθεί και να στοχεύει μαχητές χαμηλού επιπέδου της Χαμάς πριν τους βομβαρδίσει στα σπίτια τους. Αξίζει να σημειωθεί ότι το σύστημα φέρεται να έχει ποσοστό σφάλματος 10% σύμφωνα με το ισραηλινό στρατιωτικό προσωπικό. Ωστόσο, αυτός ο αριθμός είναι εξαιρετικά αμφισβητήσιμος.

Το Σύστημα Στόχευσης Τεχνητής Νοημοσύνης «Gospel» Επεξήγηση

Ένα ακόμη ισραηλινό εργαλείο τεχνητής νοημοσύνης που ονομάστηκε... ευαγγέλιο έχει ρυθμιστεί για να παρέχει 100 στόχους καθημερινά. Διασταυρώνει κινήσεις και άλλα δεδομένα για να εντοπίσει πιθανά κτίρια που θα μπορούσαν να φιλοξενήσουν εχθρικά μαχητικά. Αυτό το σύστημα χρησιμοποιείται συχνά με το «Πού είναι ο μπαμπάς; Πρόγραμμα τεχνητής νοημοσύνης που επιτρέπει την αυτόνομη παρακολούθηση προσωπικού με σημαία.

Τεχνητή Νοημοσύνη στην Επιβολή του Νόμου: Ανίχνευση Απειλών και Κίνδυνοι Απορρήτου

Η χρήση συστημάτων Τεχνητής Νοημοσύνης (ΤΝ) στην επιβολή του νόμου είναι μια άλλη ένθερμη συζήτηση. Πολλοί άνθρωποι εξεπλάγησαν όταν έμαθαν ότι τα συστήματα του ChatGPT επισήμαναν... Ο μαζικός σκοπευτής του Tumbler Ridge του Καναδά, Τζέσι Βαν Ρουτσελάρ, ως πιθανή απειλή.

Συγκεκριμένα, το σύστημα τεχνητής νοημοσύνης σημείωσε παραβιάσεις πολιτικής οκτώ μήνες πριν, κατά τις οποίες ο χρήστης έκανε επανειλημμένα ερωτήσεις σχετικά με την ένοπλη βία. Το ερώτημα στάλθηκε σε αρκετούς ανθρώπινους αναθεωρητές, κάτι που οδήγησε στον αποκλεισμό του λογαριασμού και στην επισήμανση του χρήστη.

Γιατί τα συστήματα σήμανσης τεχνητής νοημοσύνης συχνά αποτυγχάνουν να ενεργοποιήσουν την παρέμβαση

Παρά τα κουδούνια κινδύνου που χτυπούν, η εταιρεία δηλώνει ότι ο λογαριασμός δεν ξεπέρασε το όριο για αυτό που θεωρούν ενεργή απειλή. Ως εκ τούτου, οι αρχές δεν ειδοποιήθηκαν ποτέ. Αν το είχαν κάνει, ίσως να είχαν καταφέρει να πάρουν συνεντεύξεις και να σώσουν οκτώ ζωές στις 10 Φεβρουαρίου 2026.

Είναι ενδιαφέρον ότι τα εσωτερικά αρχεία της εταιρείας δείχνουν ότι υπήρξε μια συζήτηση σχετικά με την ενημέρωση των αρχών μετά την απαγόρευση του λογαριασμού. Αργότερα αποκαλύφθηκε ότι ο δράστης άνοιξε έναν άλλο λογαριασμό παρακάμπτοντας την απαγόρευση πριν από τις επιθέσεις του.

Κυβερνητικοί αξιωματούχοι υποστηρίζουν ότι ήταν ευθύνη της OpenAI να ειδοποιήσει τις αρχές για την ύποπτη συνομιλία και, αν το είχαν κάνει, θα μπορούσαν να είχαν βοηθήσει στη διάσωση ζωών. Αντίθετα, η εταιρεία δήλωσε ότι θα βελτιώσει την κοινή χρήση δεδομένων και τον χρόνο απόκρισης, μειώνοντας τα όριά της.

Η Επιστολή Δεοντολογίας της Τεχνητής Νοημοσύνης «Δεν θα Διχαστούμε»

Ο "Δεν θα είμαστε διχασμένοι. Επιστολή«είναι μια ανοιχτή έκκληση προς τους εργαζομένους στην Τεχνητή Νοημοσύνη να αντιταχθούν δημόσια στα πλήρως αυτόνομα όπλα και τη μαζική επιτήρηση και να πιέσουν για εκτελεστές δεσμεύσεις ασφαλείας σε ολόκληρο τον κλάδο. Η επιστολή προτρέπει τους προγραμματιστές Τεχνητής Νοημοσύνης να μην υποστηρίζουν με κανέναν τρόπο πλήρως αυτόνομα όπλα ή επιχειρήσεις μαζικής επιτήρησης.»

Δημιουργεί επίσης μια λίστα με κοινές γραμμές ασφαλείας που έχουν σχεδιαστεί για να αποτρέπουν ένα σενάριο ανεξέλεγκτης τεχνητής νοημοσύνης. Αυτές οι οδηγίες περιλαμβάνουν στοιχεία όπως η συμπερίληψη ενός ανθρώπινου ελέγχου για την εποπτεία και την έγκριση οποιωνδήποτε θανατηφόρων δραστηριοτήτων. Επίσης, υποστηρίζει τη διαφάνεια για την αποτροπή της κατάχρησης.

Ο βασικός στόχος της επιστολής είναι η δημιουργία ενός συνόλου ηθικών προτύπων που μπορούν να ακολουθήσουν όλες οι εταιρείες τεχνητής νοημοσύνης, ώστε να αποτρέψουν την τεχνολογία από το να κάνει τη ζωή κόλαση για όλους στον πλανήτη. Η επιστολή έρχεται σε ένα κρίσιμο σημείο στην υιοθέτηση της τεχνητής νοημοσύνης, καθώς οι στρατοί έχουν πλέον εξαρτηθεί από αυτήν την τεχνολογία για επιχειρήσεις στόχευσης και συλλογής πληροφοριών.

Η θέση των μεγάλων εταιρειών τεχνητής νοημοσύνης σχετικά με τη χρήση από την κυβέρνηση και τον στρατό

Όταν εξετάζετε αυτά τα δύο πολύ διαφορετικά σενάρια, μπορείτε να δείτε πώς οι εταιρείες Τεχνητής Νοημοσύνης συνεχίζουν να συγχωνεύουν δραστηριότητες με κυβερνητικές υπηρεσίες. Αυτή η συγχώνευση θα απαιτήσει μια λεπτή ισορροπία δυνατοτήτων με δικλείδες ασφαλείας και διαφάνεια για την αποτροπή κατάχρησης. Ακολουθεί η τρέχουσα στάση κάθε εταιρείας σχετικά με τις κυβερνητικές δραστηριότητες.

Σύρετε για κύλιση

Provider Στάση Κατάσταση σύμβασης
Ανθρωπικός Περιορισμένη πρόσβαση Περιορισμένη / σταδιακά καταργημένη ομοσπονδιακή χρήση
Google Πλήρης υποστήριξη επιχειρήσεων Αναφερόμενες συμβάσεις CDAO (~$200 εκατομμύρια)
OpenAI Αναπτύξεις «νόμιμης χρήσης» (διεκδικούμενες διασφαλίσεις) Αναφέρθηκαν αμυντικές αναπτύξεις
xAI Αναφέρθηκε προθυμία για «νόμιμη χρήση» Αναφορά κυβερνητικού έργου

Ανθρωπικός

Η Anthropic έχει επιμείνει στα βασικά της πρότυπα, επιδιώκοντας να διατηρήσει αυστηρά όρια στις περιπτώσεις χρήσης αυτόνομης στόχευσης και μαζικής επιτήρησης. Ωστόσο, φαίνεται ότι πληρώνει ακριβά την ηθική της πυξίδα, καθώς οι ομοσπονδιακές υπηρεσίες προχώρησαν στον περιορισμό ή τη σταδιακή κατάργηση της χρήσης των μοντέλων της σε ορισμένα περιβάλλοντα.

OpenAI

Η OpenAI στοχεύει αποκλειστικά στην ενσωμάτωση της κυβέρνησης. Η εταιρεία ήταν πρόθυμη να κερδίσει θέση όταν η Anthropics έχασε το συμβόλαιό της με το Υπουργείο Άμυνας λόγω της προσήλωσής της στον πυρήνα της αποστολής της. Η OpenAI συμφώνησε να αναπτύξει μοντέλα σε αμυντικά περιβάλλοντα βάσει ενός πλαισίου «νόμιμης χρήσης». Η εταιρεία δηλώνει ότι απαγορεύει την εγχώρια μαζική παρακολούθηση και απαιτεί ανθρώπινη ευθύνη για τη χρήση βίας.

xAI

Η xAI του Έλον Μασκ έχει υποστηρίξει ένθερμα την ενσωμάτωση της Τεχνητής Νοημοσύνης στο δόγμα του πολέμου. Οι αναφορές δείχνουν ότι η xAI έχει δηλώσει προθυμία να υποστηρίξει απόρρητες κυβερνητικές αναπτύξεις υπό όρους «νόμιμης χρήσης», αν και οι επιχειρησιακές λεπτομέρειες παραμένουν περιορισμένες.

Google

Google (GOOGL -2.34%) έχει υπάρξει έντονη εσωτερική συζήτηση σχετικά με τη χρήση του συστήματός της σε πολεμικές επιχειρήσεις. Η εταιρεία έβαλε πάνω από 300 βασικούς εργαζομένους να υπογράψουν μια ανοιχτή επιστολή που προέτρεπε τους παρόχους Τεχνητής Νοημοσύνης να απορρίψουν ανοιχτές συμβάσεις προς το Πεντάγωνο. Ωστόσο, η Google έχει συμβόλαια CDAO ύψους +200 εκατομμυρίων δολαρίων, πράγμα που σημαίνει ότι δέχεται μεγάλη πίεση να υποχωρήσει.

Takeaway για επενδυτές: Η διακυβέρνηση της Τεχνητής Νοημοσύνης αναδύεται ως ένα ανταγωνιστικό πεδίο. Οι εταιρείες που ευθυγραμμίζονται με τα κανονιστικά πλαίσια διατηρώντας παράλληλα την ικανότητα καινοτομίας είναι πιθανό να εξασφαλίσουν μακροπρόθεσμες κυβερνητικές συμβάσεις και θεσμική εμπιστοσύνη. Οι εταιρείες που εκτίθενται σε κινδύνους deepfake ή σε διαμάχες σχετικά με την επιτήρηση ενδέχεται να αντιμετωπίσουν αντιξοότητες όσον αφορά τη φήμη και τη συμμόρφωση.

Τελευταία νέα και απόδοση της GOOGLE (GOOGL)

Το μέλλον της διακυβέρνησης της τεχνητής νοημοσύνης και της δημοκρατικής σταθερότητας

Όταν εξετάζετε την ενσωμάτωση συστημάτων Τεχνητής Νοημοσύνης σε όλα, από την κυβέρνηση έως τις στρατιωτικές επιχειρήσεις, είναι εύκολο να αναγνωρίσετε την ανάγκη για ορισμένες δικλείδες ασφαλείας. Αυτά τα συστήματα έχουν γίνει απίστευτα ισχυρά τόσο από τεχνικής όσο και από κοινωνικής άποψης. Ας ελπίσουμε ότι οι εταιρείες Τεχνητής Νοημοσύνης θα συνειδητοποιήσουν τη σημασία του τμήματός τους και θα τηρήσουν τα ηθικά πρότυπα πριν να είναι πολύ αργά. Όπως έχουν τα πράγματα τώρα, φαίνεται ότι τα κέρδη θα κερδίσουν αυτόν τον αγώνα.

Μάθετε για άλλες εξελίξεις στην Τεχνητή Νοημοσύνη (ΤΝ) εδώ.

Ο Ντέιβιντ Χάμιλτον είναι δημοσιογράφος πλήρους απασχόλησης και μακροχρόνιος bitcoinist. Ειδικεύεται στη συγγραφή άρθρων για το blockchain. Άρθρα του έχουν δημοσιευτεί σε πολλές εκδόσεις bitcoin συμπεριλαμβανομένων Bitcoinlightning.com

Διαφημιστής Αποκάλυψη: Το Securities.io δεσμεύεται σε αυστηρά πρότυπα σύνταξης για να παρέχει στους αναγνώστες μας ακριβείς κριτικές και αξιολογήσεις. Ενδέχεται να λάβουμε αποζημίωση όταν κάνετε κλικ σε συνδέσμους προς προϊόντα που εξετάσαμε.

Η ΕΑΚΑΑ: Τα CFD είναι πολύπλοκα μέσα και έχουν υψηλό κίνδυνο γρήγορης απώλειας χρημάτων λόγω μόχλευσης. Μεταξύ 74-89% των λογαριασμών λιανικών επενδυτών χάνουν χρήματα κατά τη διαπραγμάτευση CFD. Θα πρέπει να εξετάσετε εάν καταλαβαίνετε πώς λειτουργούν τα CFD και εάν έχετε την οικονομική δυνατότητα να αναλάβετε τον υψηλό κίνδυνο να χάσετε τα χρήματά σας.

Αποποίηση ευθύνης επενδυτικών συμβουλών: Οι πληροφορίες που περιέχονται σε αυτόν τον ιστότοπο παρέχονται για εκπαιδευτικούς σκοπούς και δεν αποτελούν επενδυτικές συμβουλές.

Αποποίηση Εμπορικού Κινδύνου: Υπάρχει πολύ υψηλός βαθμός κινδύνου που ενέχει η διαπραγμάτευση τίτλων. Συναλλαγές σε οποιοδήποτε είδος χρηματοοικονομικού προϊόντος, συμπεριλαμβανομένων των συναλλάγματος, των CFD, των μετοχών και των κρυπτονομισμάτων.

Αυτός ο κίνδυνος είναι υψηλότερος με τα κρυπτονομίσματα λόγω των αγορών που είναι αποκεντρωμένες και μη ρυθμιζόμενες. Θα πρέπει να γνωρίζετε ότι μπορεί να χάσετε ένα σημαντικό μέρος του χαρτοφυλακίου σας.

Το Securities.io δεν είναι εγγεγραμμένος μεσίτης, αναλυτής ή σύμβουλος επενδύσεων.