stub Sammenstødet mellem AI-magt og demokratiske normer – Securities.io
Følg os

Kunstig intelligens

Sammenstødet mellem AI-magt og demokratiske normer

mm

Securities.io opretholder strenge redaktionelle standarder og kan modtage kompensation fra gennemgåede links. Vi er ikke en registreret investeringsrådgiver, og dette er ikke investeringsrådgivning. Se venligst vores tilknyttet videregivelse.

Fotorealistisk delt billede af et lysende digitalt AI-ansigt forbundet via neurale netværkslinjer til den oplyste US Capitol-bygning i skumringen, hvilket symboliserer AI-styring og demokratiske institutioner.

Efterhånden som AI-teknologi bliver mere udbredt og kraftfuld, er det blevet stadig vanskeligere at finde en balance mellem demokratiske værdier og teknologiske fremskridt. På den ene side har det aldrig været nemmere for folk at dele deres visioner med masserne.

AI mangler dog begrænsninger, hvilket betyder, at den konstant flytter grænserne for næsten alle sociale målepunkter. Her kan du se, hvordan AI-udviklere fortsætter med at forsøge at skabe harmoni mellem AI's evner og demokratiske værdier, og hvorfor det kan være umuligt at gøre det.

Sammendrag: Regeringen fortsætter med at lægge pres på AI-virksomheder for at få dem til at sænke deres begrænsninger. Dette scenarie har ført til interne stridigheder, ophedede debatter og virksomheder som Anthropic, der står over for føderale brugsrestriktioner og udfasningsbeslutninger.

Hvordan AI omformer beskyttelsen af ​​ytringsfrihed

Kunstig intelligens har haft en rungende effekt på ytringsfriheden. For det første har det gjort det lettere for folk at skabe levende skildringer af deres vision og dele dem med offentligheden via sociale medier. Det har også reduceret produktionsomkostningerne til næsten nul, hvilket gør det muligt for enhver organisation at kæmpe for sin sag virtuelt.

AI-værktøjer giver adskillige fordele, herunder muligheden for nemt at ændre og tilpasse deres budskaber, så de passer til bestemte demografiske grupper. Derudover er AI-indhold indtil videre blevet betragtet som underlagt beskyttelsen af ​​det første tillæg til den amerikanske forfatning (First Amendment of the Constitution). Som sådan giver det skabere mulighed for fri udfoldelse.

Omvendt har kunstig intelligens ført til en strøm af misinformation. Det er sværere end nogensinde for folk at skelne, hvilken information der kommer fra en ægte ekspert, og hvilken der er skabt af en algoritme. Desværre er resultaterne en underminering af tilliden til systemerne.

Hvordan algoritmer på sociale medier forstærker misinformation om kunstig intelligens

For at forværre kaoset kan sociale mediealgoritmer fremme deepfakes, da de ofte er mere kontroversielle, hvilket resulterer i mere interaktion. Dette skaber en cyklus, hvor usandheder vises mere fremtrædende end de reelle oplysninger. Desværre er der intet mandat, der siger, at misinformation om kunstig intelligens skal mærkes.

AI og borgerdeltagelse i demokratiske systemer

Kunstig intelligens åbner døren for bredere deltagelse fra borgere. Dens systemer gør det lettere for regeringen og borgerne at kommunikere deres ideer og spore offentlig konsensus. Derudover har den vist sig nyttig til at opsummere kompleks lovgivning og dele vigtige data for at informere borgerne.

Risici ved AI-overvågning og bekymringer om demokratisk privatliv

Der er flere overvågningsrisici som AI skaber sammen med at fremme valgdeltagelse. Disse systemer kan nemt spore vælgere. Der findes AI-systemer, der kan gennemgå dit komplette digitale fodaftryk og give en vurdering af dine politiske synspunkter baseret på din webaktivitet.

Derudover kan denne teknologi bruges til at bestemme, hvem en person er baseret på deres digitale fodaftryk eller præferencer. Alle disse værktøjer kræver ikke en ransagningskendelse som tidligere teknologier. Som sådan øges potentialet for misbrug.

AI's rolle i moderne valg og valgintegritet

Kunstig intelligens tilbyder adskillige fordele for valgprocessen. For det første gør det det nemmere at overvåge resultater. AI-systemer kan også hjælpe med at spore eventuelle forstyrrelser i form af intimidering eller trusler fra vælgerne.

AI-deepfakes og den politiske tillidskrise

Af al den misinformation om kunstig intelligens, der skaber kaos i dag, opstår de største problemer omkring deepfakes. Denne teknologi gør det muligt for folk nemt at lave dubletter af embedsmænd, branchefolk eller hvem de vil, inklusive politiske kandidater.

Kilde - BBC

Kilde - BBC

Politiske deepfakes fortsætter med at skabe hovedpine for embedsmænd og forvrænge information til offentligheden. Problemet er, at disse forfalskninger er blevet næsten umulige at skelne fra ægte vare. Som sådan er de blevet adopteret af næsten alle typer grupper, der søger at skabe kaos eller så mistillid i offentligheden.

"Løgnerens udbytte" og erosionen af ​​offentlighedens tillid

Det konstante bombardement af AI-deepfakes har en anden uventet effekt – løgnerens dividende. Dette udtryk refererer til en hændelse, der har ægte fakta og beviser at understøtte, men som stadig benægtes af den anklagede som værende en AI-deepfake.

Denne strategi forringer tilliden til systemerne og skaber et scenarie, hvor den gennemsnitlige person ikke kan træffe informerede beslutninger. Den ødelægger også enhver chance for en fornuftig debat, da alle sider er polariserede om emner på grund af misinformation.

Eksempler fra den virkelige verden på AI-deepfakes i valg

Der er adskillige nylige eksempler på deepfakes, der har skabt kaos under valg. En bemærkelsesværdig hændelse fandt sted den 21. januar 2024, da en robocall deepfake blev brugt. AI-systemet blev sat op til at kontakte registrerede demokrater.

Da de svarede, en Præsident Joe Bidens deepfake-stemme blev brugt til at opfordre dem til at "gem deres stemme til novemberRapporter viser, at hans budskab blev udsendt til 20,000 mennesker, hvilket resulterede i, at mange valgte at springe valget over, som budskabet angav.

Da der kom rapporter om robotopkaldene, blev der iværksat en undersøgelse. Det var dog allerede efter valget var afsluttet, og der var ikke blevet omformuleret nogen stemmesedler. Dette scenarie er blot et af mange, der fremhæver farerne ved AI-deepfake-valgindblanding.

Slovakiets deepfake-skandale i forbindelse med valget i 2023

Et andet eksempel på AI-indblanding i valg fandt sted i Slovakiets valg i 2023I denne hændelse dukkede en falsk video op, der viste lederen af ​​Progressive Slovakiet, Michal Šimečka, diskutere valgfusk. Videoen blev senere stemplet som falsk, men først efter at den havde fået millioner af visninger og delinger på TikTok, Facebook og Telegram.

Sådan opdager du AI-deepfakes i 2026

Det er ikke nogen nem opgave at opdage deepfakes. Tidligere efterlod teknologien mange fejl, såsom unaturlige blink, mærkeligt lys eller endda forekomsten af ​​læbesynkronisering. Forskning tyder på, at mennesker ofte er dårlige til at opdage deepfakes af høj kvalitet og ofte præsterer på niveauer, der er næsten tilfældige, afhængigt af kontekst og modalitet.

En måde at afgøre, om en video er en deepfake, er at søge i billedrammerne ved hjælp af Google for at finde det originale indhold. De vil også forsøge at bruge lyden til at søge efter unaturlige lyde. I nogle tilfælde er det umuligt at opdage en deepfake af høj kvalitet uden nogle tekniske værktøjer.

Top AI Deepfake Detection-værktøjer og deres begrænsninger

Ironisk nok er AI-værktøjer den bedste mulighed at bruge, når man forsøger at fastslå en videos legitimitet. Disse muligheder inkluderer Deepware scanner, Reality Defender, Microsofts Video AuthenticatorOg meget mere.

Disse protokoller har proprietære algoritmer designet til at lokalisere eventuelle pixeluoverensstemmelser eller mønstre, der findes i AI-videobilleder. Disse systemer kan også krydsreferere forekomsterne med lokale data, hvilket gør det muligt for dem at afsløre en AI-interferens.

De bedste AI-detektionsværktøjer er ikke perfekte, med protokoller som Bio-ID en score på 98% i nylige tests. Det faktum, at 2% af deepfakesene kunne ses selv i andre AI-systemer, giver anledning til bekymring fremadrettet.

Mediekendskab som et forsvar mod manipulation med AI

Den bedste måde at bekæmpe deepfakes på er måske at fokusere på at fremme mediekendskab blandt masserne. Der er et stort behov for en obligatorisk etiket, der gør det nemt at afgøre, om en video er en deepfake eller legitim.

Hvorfor Big Techs selvregulering har fejlet inden for AI-styring

Historien har vist, at tech-virksomheder ikke kan selvregulere. Deres fokus er på profit og innovation. Dette ønske kan ske på bekostning af privatlivets fred og sandheden. Som sådan er der intet scenarie, hvor en tech-virksomhed effektivt vil være i stand til at forhindre deepfakes i at nå deres følgere.

Regeringens indsats for regulering af AI i 2026

Da teknologivirksomheder ikke er i stand til at yde den nødvendige beskyttelse mod disse problemer, er regeringer begyndt at tage over. Dette scenarie er dog ikke ideelt, da regeringer ikke forstår teknologien på en måde, der gør det muligt for dem at skabe sikkerhedsforanstaltninger, der ikke kvæler innovation.

AI-virksomheder vs. regering: Det politiske sammenstød i 2026

Kløften mellem regeringer og AI-udbydere er begyndt at vokse i løbet af de sidste par måneder. Mens lovgivere er ivrige efter at beskytte offentligheden mod deep fakes og misinformation, fortsætter militæret med at presse på for fuld integration af AI-værktøjer i sit arsenal.

Dette ønske om at bruge denne teknologi som en del af kill chain har resulteret i adskillige offentlige uenigheder mellem virksomheder og den amerikanske regering. Her er nogle af de seneste hændelser, der fremhæver risiciene og den potentielle mørke side af AI-krigsførelse.

Antropisk vs. det amerikanske forsvarsministerium

Antropisk er midt i en offentlig strid med det amerikanske forsvarsministerium om brugen af ​​deres Claude AI-model. Uenigheden drejer sig om at give ubegrænset adgang til AI'en, hvilket kan resultere i, at systemet bliver brugt til at udføre masseovervågning i landet.

Anthropic, der blev lanceret i 2021, har også nægtet fuld adgang på grund af bekymringer over pålideligheden af ​​AI-målretningssystemer. Begge disse røde linjer blev fremsat af virksomhedens administrerende direktør, Dario Amodei, med henvisning til upålidelighed som en hovedbekymring.

Anthropics foreslåede begrænsninger på militær brug af AI

I denne forbindelse argumenterer Pentagon for, at denne Pentagon-kontrakt på 200 millioner dollars bør omfatte ubegrænset adgang. Anthropic gav nogle indrømmelser under debatten, herunder at tillade brugen af ​​AI-systemer i missil- og forsvarssektoren. De udtalte endda, at det ville være okay med NSA-operationer, så længe de udelukkede masseovervågning af amerikanske borgere.

Hvorfor Pentagon afviste Anthropics restriktioner

Det var dog ikke nok for Pentagon-embedsmænd. Kort efter at Anthropic afviste denne påstand, forbød Trump-administrationen deres produkter at blive brugt af enhver føderal organisation. Præsidenten kaldte specifikt Anthropics produkter for en "national sikkerhedsrisiko". Rapportering om tvisten henviste også til Defense Production Act som et potentielt pressionsmiddel, selvom den præcise juridiske begrundelse bør beskrives omhyggeligt, medmindre den citeres direkte fra ordren.

Denne manøvre betyder, at Anthropic ikke vil være i stand til at sikre nogen militære eller statslige kontrakter fremadrettet, hvilket efterlader virksomheden i en usikker situation, hvor den skal vælge mellem sine kerneværdier og profit.

Hvordan OpenAI og xAI reagerede på Pentagon-skiftet

Anthropics konkurrent OpenAI trådte hurtigt til for at fylde Anthropics plads og lovede fuld overholdelse af Pentagons krav. Virksomheden underskrev derfor en hemmelig aftale med regeringen, som inkluderer ubegrænset lovlig brug af deres AI-system.

Nuværende militære anvendelser af kunstig intelligens

Der er allerede mange eksempler på AI-systemer, der hjælper med at øge tempoet og omfanget af krigsførelse. Disse systemer er optimeret til at arbejde hånd i hånd med det stigende antal autonome systemer, såsom sværmdroneteknologi.

Kunstig intelligens ses som banebrydende, fordi den kan kombinere input fra en massiv række sensorer for at give hurtigere målretning og mere. Det er også afgørende i militærets logistik- og finanssektorer, hvor det kan bidrage til at sikre, at forebyggende vedligeholdelse og andre vigtige opgaver forbliver planmæssige.

Israels brug af AI-målretningssystemer i Gaza

Brugen af ​​AI-målretningssystemer blev fremhævet i Israels Gaza-kampagne. Disse operationer udnyttede værktøjer som Lavender at krydsreferere en persons bevægelser med potentiel militant adfærd.

Dette værktøj gjorde det muligt for den israelske hær at spore og målrette lavtstående Hamas-krigere, før de bombede dem i deres hjem. Bemærkelsesværdigt nok har systemet angiveligt en fejlrate på 10% ifølge israelsk militærpersonale. Dette tal er dog meget diskutabelt.

Forklaring af "Gospel" AI-målretningssystemet

Et andet israelsk AI-værktøj kaldet evangeliet er sat op til at levere 100 mål dagligt. Det krydsrefererer bevægelser og andre data for at lokalisere potentielle bygninger, der kan huse fjendtlige jagerfly. Dette system bruges ofte med “Hvor er far? AI-program, der muliggør autonom sporing af markeret personale.

AI i retshåndhævelse: Trusselsdetektion og privatlivsrisici

Brugen af ​​AI-systemer i retshåndhævelse er en anden omdiskuteret debat. Mange blev overraskede over at erfare, at ChatGPT's systemer blev markeret Canadas masseskyderi i Tumbler Ridge, Jesse Van Rootselaar, som en potentiel trussel.

Specifikt registrerede AI-systemet politikovertrædelser otte måneder tidligere, hvor brugeren gentagne gange havde stillet spørgsmål vedrørende våbenvold. Forespørgslen blev sendt til flere menneskelige kontrollører, hvilket førte til, at kontoen blev udelukket og brugeren blev markeret.

Hvorfor AI-flaggingsystemer ofte ikke udløser intervention

Trods de ringende alarmklokker oplyser virksomheden, at kontoen ikke krydsede tærsklen for, hvad de anser for at være en aktiv trussel. Derfor blev myndighederne aldrig underrettet. Hvis de havde været det, havde de muligvis været i stand til at interviewe og redde otte liv den 10. februar 2026.

Interessant nok viser interne virksomhedsoptegnelser, at der var en debat om at underrette myndighederne efter kontoforbuddet. Det blev senere afsløret, at gerningsmanden åbnede en anden konto for at omgå forbuddet før sine angreb.

Embedsmænd argumenterer for, at det var OpenAIs ansvar at underrette myndighederne om den mistænkelige chat, og hvis de havde gjort det, kunne det have reddet liv. Omvendt udtalte virksomheden, at den vil forbedre sin datadeling og svartid og dermed sænke sine tærskler.

Brevet om AI-etik: "Vi vil ikke være splittede"

Den "Vi vil ikke blive delt brev"er en åben opfordring til AI-medarbejdere om offentligt at modsætte sig fuldt autonome våben og masseovervågning og til at presse på for håndhævelige sikkerhedsforpligtelser i hele branchen. Brevet opfordrer AI-udviklere til ikke at støtte fuldt autonome våben eller masseovervågningsoperationer på nogen måde.

Den opretter også en liste over fælles sikkerhedslinjer, der er designet til at forhindre et løbsk AI-scenarie. Disse retningslinjer inkluderer elementer som at inkludere en "human-in-the-loop" til overvågning og godkendelse af eventuelle dødelige aktiviteter. Den fremmer også gennemsigtighed for at forhindre misbrug.

Hovedformålet med brevet er at skabe et sæt etiske standarder, som alle AI-virksomheder kan følge for at forhindre teknologien i at gøre livet til et helvede for alle på planeten. Det kommer på et kritisk tidspunkt i AI-adoptionen, da militæret er blevet afhængige af denne teknologi til målretning og informationsindsamling.

Hvor store AI-virksomheder står i forhold til regerings- og militærbrug

Når man undersøger disse to meget forskellige scenarier, kan man se, hvordan AI-virksomheder fortsætter med at fusionere operationer med offentlige myndigheder. Denne fusion vil kræve en hårfin balance mellem kapaciteter med sikkerhedsforanstaltninger og gennemsigtighed for at forhindre misbrug. Her er hver virksomheds nuværende holdning til offentlige operationer.

Stryg for at rulle

Provider standpunkt Kontraktstatus
Antropisk Begrænset adgang Føderal brug begrænset / udfaset
Google Fuld virksomhedssupport CDAO-kontrakter rapporteret (~200 millioner dollars)
OpenAI Implementering af "lovlig brug" (påståede sikkerhedsforanstaltninger) Rapporterede forsvarsindsættelser
xAI Rapporteret villighed til "lovlig brug" Regeringsarbejde rapporteret

Antropisk

Anthropic har holdt fast i sine kernestandarder og forsøgt at opretholde strenge grænser for autonom målretning og masseovervågning. Det ser dog ud til, at de betaler dyrt for deres moralske kompas, efterhånden som føderale myndigheder har begrænset eller udfaset brugen af ​​deres modeller i visse miljøer.

OpenAI

OpenAI handler udelukkende om integration af regeringer. Virksomheden var ivrig efter at opnå en position, da Anthropics mistede sin kontrakt med Forsvarsministeriet på grund af sin fastholdelse af sin missionskerne. OpenAI har indvilliget i at implementere modeller i forsvarsmiljøer under en ramme for "lovlig brug". Virksomheden erklærer, at den forbyder indenlandsk masseovervågning og kræver menneskeligt ansvar for magtanvendelse.

xAI

Elon Musks xAI har været en stærk tilhænger af integration af AI i krigsførelsesdoktrinen. Rapportering tyder på, at xAI har signaleret vilje til at støtte klassificerede regeringsindsættelser under "lovlig brug"-betingelser, selvom operationelle detaljer stadig er begrænsede.

Google

Google (GOOGL -2.34%) har haft en del intern debat om brugen af ​​deres system i krigsførelse. Virksomheden fik over 300 kernemedarbejdere til at underskrive et åbent brev, der opfordrede AI-udbydere til at afvise åbne kontrakter til Pentagon. Google har dog CDAO-kontrakter for over 200 millioner dollars, hvilket betyder, at de er under stort pres for at bøje sig.

Investorernes konklusion: AI-styring er ved at blive en konkurrencepræget voldgrav. Virksomheder, der tilpasser sig lovgivningsmæssige rammer og samtidig opretholder innovationskapacitet, vil sandsynligvis sikre sig langsigtede offentlige kontrakter og institutionel tillid. Virksomheder, der er udsat for deepfake-risici eller overvågningskontroverser, kan stå over for modvind i forhold til omdømme og compliance.

Seneste GOOGLE (GOOGL) nyheder og ydeevne

Fremtiden for AI-styring og demokratisk stabilitet

Når man undersøger integrationen af ​​AI-systemer i alt fra regerings- til militæroperationer, er det let at erkende et behov for visse sikkerhedsforanstaltninger. Disse systemer er blevet utroligt kraftfulde både teknisk og samfundsmæssigt. Forhåbentlig vil AI-virksomheder indse vigtigheden af ​​deres opdeling og holde sig til etiske standarder, før det er for sent. Som det ser ud nu, ser det ud til, at profitten vil vinde dette kapløb.

Lær om andre AI-udviklinger link..

David Hamilton er fuldtidsjournalist og mangeårig bitcoinist. Han har specialiseret sig i at skrive artikler om blockchain. Hans artikler er blevet offentliggjort i flere bitcoin-publikationer, herunder Bitcoinlightning.com

Annoncør Disclosure: Securities.io er forpligtet til strenge redaktionelle standarder for at give vores læsere nøjagtige anmeldelser og vurderinger. Vi kan modtage kompensation, når du klikker på links til produkter, vi har anmeldt.

ESMA: CFD'er er komplekse instrumenter og kommer med en høj risiko for hurtigt at tabe penge på grund af gearing. Mellem 74-89 % af detailinvestorkonti taber penge ved handel med CFD'er. Du bør overveje, om du forstår, hvordan CFD'er fungerer, og om du har råd til at tage den høje risiko for at miste dine penge.

Ansvarsfraskrivelse for investeringsrådgivning: Oplysningerne på denne hjemmeside er givet til uddannelsesformål og udgør ikke investeringsrådgivning.

Handelsrisiko Ansvarsfraskrivelse: Der er en meget høj grad af risiko forbundet med handel med værdipapirer. Handel med enhver form for finansielt produkt inklusive forex, CFD'er, aktier og kryptovalutaer.

Denne risiko er højere med kryptovalutaer på grund af, at markeder er decentraliserede og ikke-regulerede. Du skal være opmærksom på, at du kan miste en betydelig del af din portefølje.

Securities.io er ikke en registreret mægler, analytiker eller investeringsrådgiver.