заглушки Зіткнення між силою штучного інтелекту та демократичними нормами – Securities.io
Зв'язатися з нами

Штучний Інтелект

Зіткнення між силою штучного інтелекту та демократичними нормами

mm

Securities.io дотримується суворих редакційних стандартів і може отримувати винагороду за перевірені посилання. Ми не є зареєстрованим інвестиційним консультантом, і це не є інвестиційною порадою. Будь ласка, перегляньте наші розкриття партнерів.

Фотореалістичне розділене зображення сяючого цифрового обличчя штучного інтелекту, з'єднаного лініями нейронної мережі з освітленою будівлею Капітолію США в сутінках, що символізує управління штучним інтелектом та демократичні інституції.

Зі зростанням поширеності та потужності технології штучного інтелекту стає дедалі складніше знайти баланс між демократичними цінностями та технологічним прогресом. З одного боку, людям ще ніколи не було так легко ділитися своїм баченням з масами.

Однак, штучному інтелекту бракує бар'єрів, а це означає, що він постійно розширює межі майже кожного соціального показника. Ось як розробники штучного інтелекту продовжують намагатися створити гармонію між можливостями штучного інтелекту та демократичними цінностями, і чому це може бути неможливо зробити.

Основна інформація: Уряд продовжує тиснути на компанії, що займаються штучним інтелектом, щоб ті послабили свої обмеження. Цей сценарій призвів до внутрішніх конфліктів, запеклих дебатів, а такі компанії, як Anthropic, зіткнулися з федеральними обмеженнями на використання та рішеннями про поступове припинення використання.

Як штучний інтелект змінює захист свободи слова

Штучний інтелект мав величезний вплив на свободу слова. По-перше, він спростив для людей створення яскравих зображень свого бачення та поширення їх з громадськістю через соціальні мережі. Він також знизив виробничі витрати майже до нуля, що дозволило будь-якій організації відстоювати свою справу віртуально.

Інструменти штучного інтелекту надають кілька переваг, зокрема можливість легко змінювати та налаштовувати свої повідомлення відповідно до певних демографічних груп. Крім того, контент на основі штучного інтелекту досі розглядався як такий, що охороняється Першою поправкою. Таким чином, він дозволяє творцям вільно висловлюватися.

І навпаки, штучний інтелект призвів до потоку дезінформації. Людям зараз важче, ніж будь-коли, розрізнити, яка інформація надходить від справжнього експерта, а яка створена алгоритмом. На жаль, результатом є руйнування довіри до систем.

Як алгоритми соціальних мереж посилюють дезінформацію, пов'язану з ШІ

Посилюючи хаос, алгоритми соціальних мереж можуть сприяти поширенню діпфейків, оскільки вони часто є більш суперечливими, що призводить до більшої взаємодії. Це створює цикл, де неправдива інформація демонструється помітніше, ніж реальна. На жаль, жодне наказове положення не вимагає, щоб дезінформацію, спричинену штучним інтелектом, було позначено.

Штучний інтелект та участь громадян у демократичних системах

Штучний інтелект відкриває двері для ширшої участі громадян. Його системи полегшують уряду та громадянам донесення своїх ідей та відстеження громадського консенсусу. Крім того, він виявився корисним для узагальнення складного законодавства та обміну важливими даними для інформування громадян.

Ризики спостереження за штучним інтелектом та проблеми конфіденційності демократів

Є кілька ризики спостереження які створює ШІ разом зі стимулюванням участі. Ці системи можуть легко відстежувати виборців. Існують системи ШІ, які можуть переглянути ваш повний цифровий слід і надати оцінку ваших політичних поглядів на основі вашої веб-активності.

Крім того, цю технологію можна використовувати для визначення особи на основі її цифрового сліду чи уподобань. Усі ці інструменти не потребують ордера, як попередні технології. Таким чином, потенціал для зловживань зростає.

Роль штучного інтелекту в сучасних виборах та чесність виборів

Штучний інтелект пропонує кілька переваг для виборчого процесу. По-перше, він спрощує моніторинг результатів. Системи штучного інтелекту також можуть допомогти відстежувати будь-які збої з точки зору залякування чи погроз виборцям.

Глибокі фейки штучного інтелекту та криза політичної довіри

З усієї дезінформації, що спричиняє хаос сьогодні, основні проблеми виникають навколо діпфейків. Ця технологія дозволяє людям легко створювати дублікати державних службовців, фахівців галузі або будь-кого, кого вони забажають, включаючи політичних кандидатів.

Джерело - BBC

Джерело - BBC

Політичні діпфейки продовжують створювати головний біль чиновникам та спотворювати інформацію для громадськості. Проблема полягає в тому, що ці фейки стали майже невідрізними від реальності. Таким чином, їх почали використовувати майже всі типи груп, які прагнуть створити хаос або посіяти зерна недовіри серед громадськості.

«Дивіденди брехуна» та ерозія суспільної довіри

Постійне бомбардування діпфейками штучного інтелекту має ще один неочікуваний ефект – дивіденд брехуна. Цей термін стосується інциденту, який має справжні факти та докази на підтвердження, але все одно заперечується обвинуваченим як діпфейк штучного інтелекту.

Така стратегія підриває довіру до систем і створює ситуацію, коли пересічна людина не може приймати обґрунтовані рішення. Вона також знищує будь-яку можливість розумної дискусії, оскільки всі сторони поляризуються з певних тем через дезінформацію.

Реальні приклади глибоких фейків штучного інтелекту на виборах

Є кілька нещодавніх прикладів того, як діпфейки сіяли хаос під час виборів. Один помітний інцидент стався 21 січня 2024 року, коли було використано діпфейк за допомогою рободзвінків. Систему штучного інтелекту було налаштовано для зв'язку із зареєстрованими демократами.

Коли вони відповіли, а Дипфейковий голос президента Джо Байдена було використано, щоб спонукати їх до «зберегти свій голос на листопад«. Звіти показують, що його послання охопило 20 000 людей, в результаті чого багато хто вирішив пропустити вибори, як зазначено в повідомленні.

Коли з'явилися повідомлення про роботизовані дзвінки, було розпочато розслідування. Однак це було вже після завершення виборів, і жодних бюлетенів не було перераховано. Цей сценарій — лише один із багатьох, що підкреслюють небезпеку втручання штучного інтелекту у вибори за допомогою дипфейків.

Скандал із діпфейками виборів 2023 року у Словаччині

Ще один приклад втручання штучного інтелекту у вибори стався у Вибори у Словаччині 2023 рокуПід час цього інциденту з’явилося фейкове відео, на якому лідер партії «Прогресивна Словаччина» Міхал Шимечка обговорює фальсифікацію виборів. Пізніше відео було названо фейковим, але лише після того, як воно отримало мільйони переглядів та поширень у TikTok, Facebook та Telegram.

Як виявити глибокі фейки штучного інтелекту у 2026 році

Виявлення дипфейків – непросте завдання. Раніше ця технологія залишала багато помилок, таких як неприродне моргання, дивне освітлення або навіть синхронізація губ. Дослідження показують, що люди часто погано виявляють високоякісні дипфейки, часто майже випадково, залежно від контексту та способу їх виявлення.

Один зі способів визначити, чи є відео діпфейком, – це пошукати оригінальний контент серед кадрів зображення за допомогою Google. Вони також спробують використати аудіо для пошуку неприродних звуків. У деяких випадках неможливо виявити високоякісний діпфейк без певних технічних інструментів.

Найкращі інструменти для виявлення дипфейків зі штучним інтелектом та їхні обмеження

За іронією долі, інструменти штучного інтелекту – найкращий варіант для визначення легітимності відео. Ці варіанти включають Сканер Deepware, Захисник реальності, Microsoft Аутентифікатор відеоІ багато іншого.

Ці протоколи мають власні алгоритми, розроблені для виявлення будь-яких невідповідностей пікселів або шаблонів, виявлених у відеокадрах зі штучним інтелектом. Ці системи також можуть зіставляти ці випадки з локальними даними, що дозволяє їм виявляти перешкоди, спричинені штучним інтелектом.

Найкращі інструменти виявлення ШІ не ідеальні, з такими протоколами, як Біо-ідентифікатор набравши 98% у нещодавньому тестуванні. Той факт, що 2% діпфейків були помітні навіть для інших систем штучного інтелекту, викликає занепокоєння в майбутньому.

Медіаграмотність як захист від маніпуляцій штучним інтелектом

Можливо, найкращий спосіб боротьби з діпфейками — це зосередитися на підвищенні медіаграмотності серед мас. Вкрай важливо, щоб існував обов’язковий знак, який би дозволяв легко визначити, чи є відео діпфейком, чи воно справжнім.

Чому саморегулювання великих технологічних компаній зазнало невдачі в управлінні штучним інтелектом

Історія показує, що технологічні компанії не можуть саморегулюватися. Вони зосереджені на прибутку та інноваціях. Це прагнення може бути реалізоване ціною конфіденційності та правди. Таким чином, немає жодного сценарію, за якого технологічна компанія зможе ефективно запобігти поширенню діпфейків серед своїх підписників.

Урядові зусилля щодо регулювання штучного інтелекту у 2026 році

Оскільки технологічні компанії не здатні забезпечити необхідний захист від цих проблем, уряди почали брати на себе цю ініціативу. Однак цей сценарій не є ідеальним, оскільки уряди не розуміють технології настільки, щоб створювати захисні заходи, які не перешкоджають інноваціям.

Компанії штучного інтелекту проти уряду: політичне зіткнення 2026 року

Розрив між урядами та постачальниками штучного інтелекту почав зростати протягом останніх кількох місяців. Хоча законодавці прагнуть захистити громадськість від глибоких фейків та дезінформації, військові продовжують наполягати на повній інтеграції інструментів штучного інтелекту у свій арсенал.

Це бажання використовувати цю технологію як частину ланцюжка вбивств призвело до кількох публічних суперечок між компаніями та урядом США. Ось деякі з останніх інцидентів, що підкреслюють ризики та потенційну темну сторону війни за допомогою штучного інтелекту.

Антропний проти Міністерства оборони США

Антропний перебуває в розпалі публічної суперечки з Міністерством оборони США щодо використання їхньої моделі штучного інтелекту Клода. Розбіжності стосуються надання необмеженого доступу до штучного інтелекту, що може призвести до використання системи для проведення масового внутрішнього спостереження.

Anthropic, запущена у 2021 році, також відмовила у повному доступі через побоювання щодо надійності систем штучного інтелекту для цільового використання. Обидві ці червоні лінії були встановлені генеральним директором компанії Даріо Амодеї, посилаючись на ненадійність як головну проблему.

Запропоновані Anthropic обмеження на використання військового штучного інтелекту

Щодо цієї частини, Пентагон стверджує, що цей контракт з Пентагоном на 200 мільйонів доларів повинен передбачати необмежений доступ. Anthropic зробила деякі поступки під час дебатів, зокрема дозволила використовувати системи штучного інтелекту в ракетній та оборонній сферах. Вона навіть заявила, що погодиться на операції АНБ, якщо вони виключатимуть масове спостереження за громадянами США.

Чому Пентагон відхилив обмеження Anthropic

Однак цього було недостатньо для чиновників Пентагону. Невдовзі після того, як Anthropic спростувала це твердження, адміністрація Трампа заборонила використання їхньої продукції будь-якою федеральною організацією. Зокрема, президент назвав продукцію Anthropic «загрозою національній безпеці». У звітах про суперечку також згадувався Закон про оборонне виробництво як потенційний інструмент тиску, хоча точне правове обґрунтування слід описувати ретельно, якщо воно не цитується безпосередньо з наказу.

Цей маневр означає, що Anthropic не зможе забезпечити жодних військових чи урядових контрактів у майбутньому, що ставить компанію у скрутне становище, де їй доведеться вибирати між своїми основними переконаннями та прибутком.

Як OpenAI та xAI відреагували на зміни у Пентагоні

Конкурент Anthropic, OpenAI, швидко вийшов на заміну Anthropic, пообіцявши повну відповідність вимогам Пентагону. Таким чином, компанія підписала секретну угоду з урядом, яка включає необмежене законне використання її системи штучного інтелекту.

Сучасні військові застосування штучного інтелекту

Вже існує багато прикладів того, як системи штучного інтелекту допомагають збільшити темпи та масштаби бойових дій. Ці системи оптимізовані для тісної роботи зі зростаючою кількістю автономних систем, таких як технологія рою дронів.

Штучний інтелект розглядається як революційний інструмент, оскільки він може об'єднувати дані з величезного масиву датчиків для швидшого наведення на ціль та багато іншого. Він також має вирішальне значення в логістичному та фінансовому секторах військових, де може допомогти забезпечити виконання профілактичного обслуговування та інших ключових завдань за графіком.

Використання Ізраїлем систем штучного інтелекту для цільового нападу в Газі

Використання систем цільового прицілювання зі штучним інтелектом було особливо помітно в ізраїльській кампанії в Газі. Ці операції використовували такі інструменти, як Лаванда зіставити рухи людини з потенційно войовничою поведінкою.

Цей інструмент дозволив ізраїльській армії відстежувати та виявляти низькоінтенсивних бойовиків ХАМАС, перш ніж бомбити їх у їхніх будинках. Примітно, що, за даними ізраїльських військовослужбовців, система має 10% помилок. Однак ця цифра є дуже дискусійною.

Пояснення системи таргетування на основі штучного інтелекту «Євангеліє»

Ще один ізраїльський інструмент штучного інтелекту, названий Gospel налаштована на щоденне надання даних про 100 цілей. Вона порівнює переміщення та інші дані, щоб знайти потенційні будівлі, в яких можуть перебувати ворожі винищувачі. Ця система часто використовується разом із «Де тато?» Програма зі штучним інтелектом, яка дозволяє автономно відстежувати позначений персонал.

Штучний інтелект у правоохоронних органах: виявлення загроз та ризики для конфіденційності

Використання систем штучного інтелекту в правоохоронних органах – ще одна гаряча дискусія. Багато людей були здивовані, дізнавшись, що системи ChatGPT позначені як такі, що... Масовий стрілець у Тамблер-Рідж у Канаді, Джессі Ван Рутселаар, як потенційну загрозу.

Зокрема, система штучного інтелекту виявила порушення політики вісім місяців тому, коли користувач неодноразово ставив запити щодо насильства із застосуванням вогнепальної зброї. Запит було надіслано кільком людям, що призвело до блокування облікового запису та позначки користувача.

Чому системи позначення ШІ часто не спрацьовують ініціювати втручання

Незважаючи на тривожні дзвінки, компанія стверджує, що обліковий запис не перетнув поріг того, що вони вважають активною загрозою. Таким чином, владу так і не повідомили. Якби це було зроблено, вони, можливо, змогли б опитати та врятувати вісім життів 10 лютого 2026 року.

Цікаво, що внутрішні записи компанії свідчать про те, що після блокування облікового запису точилася дискусія щодо повідомлення влади. Пізніше з'ясувалося, що стрілець відкрив інший обліковий запис, обходячи блокування, перед своїми нападами.

Урядовці стверджують, що OpenAI мала на увазі повідомити владу про підозрілий чат, і якби вони це зробили, це могло б допомогти врятувати життя. І навпаки, компанія заявила, що покращить обмін даними та час реагування, знизивши свої пороги.

Лист з етики штучного інтелекту «Ми не будемо розділені»

ПодіяЛист «Ми не будемо розділені»«…» – це відкритий заклик до працівників сфери штучного інтелекту публічно виступити проти повністю автономної зброї та масового спостереження, а також наполягати на забезпеченні виконання зобов’язань щодо безпеки в усій галузі. У листі розробників ШІ закликають жодним чином не підтримувати повністю автономну зброю чи операції з масового спостереження.

Також створюється список спільних ліній безпеки, призначених для запобігання сценарію неконтрольованого використання штучного інтелекту. Ці рекомендації включають такі пункти, як включення людини до процесу нагляду та схвалення будь-яких смертельних дій. Також пропагується прозорість для запобігання зловживанням.

Основна мета листа — створити набір етичних стандартів, яких можуть дотримуватися всі компанії, що займаються штучним інтелектом, щоб запобігти перетворенню цієї технології на пекло для кожного на планеті. Це сталося на критичному етапі впровадження штучного інтелекту, оскільки військові стали залежати від цієї технології для цільового призначення та операцій зі збору інформації.

Позиція основних компаній-виробників штучного інтелекту щодо використання їх у урядових та військових цілях

Якщо розглянути ці два дуже різні сценарії, можна побачити, як компанії, що займаються штучним інтелектом, продовжують об'єднувати операції з державними установами. Це об'єднання вимагатиме делікатного балансу можливостей із гарантіями та прозорістю для запобігання зловживанням. Ось поточна позиція кожної компанії щодо державних операцій.

Проведіть пальцем для прокручування

Провайдерам Stance Статус контракту
Антропний Обмежений доступ Федеральне використання обмежене / поступово виключене
Google Повна підтримка підприємства Зафіксовані контракти CDAO (~$200 млн)
OpenAI Розгортання «законного використання» (заявлені гарантії) Повідомляється про розгортання оборонних сил
xAI Повідомляється про готовність до «законного використання» Повідомляється про роботу уряду

Антропний

Anthropic дотримується своїх основних стандартів, прагнучи зберегти жорсткі обмеження на автономне таргетування та використання масового спостереження. Однак, схоже, вона дорого платить за свій моральний компас, оскільки федеральні агентства вирішили обмежити або поступово припинити використання своїх моделей у певних середовищах.

OpenAI

OpenAI повністю орієнтований на інтеграцію з урядом. Компанія прагнула здобути позиції, коли Anthropics втратила контракт з Міністерством оборони через дотримання своєї основної місії. OpenAI погодилася розгортати моделі в оборонних середовищах відповідно до умов «законного використання». Компанія заявляє, що забороняє масове спостереження всередині країни та вимагає відповідальності людини за застосування сили.

xAI

Компанія Ілона Маска xAI рішуче підтримує інтеграцію штучного інтелекту у військову доктрину. Звітування свідчать про готовність xAI підтримувати розгортання секретних урядових операцій на умовах «законного використання», хоча оперативні деталі залишаються обмеженими.

Google

Google (GOOGL -2.34%) мала багато внутрішніх дискусій щодо використання своєї системи у військових діях. Компанія попросила понад 300 ключових працівників підписати відкритого листа, в якому закликала постачальників штучного інтелекту відмовитися від відкритих контрактів з Пентагоном. Однак Google має контракти CDAO на понад 200 мільйонів доларів, що означає, що на них чиниться великий тиск, щоб вони поступилися.

Висновок інвестора: Управління штучним інтелектом перетворюється на конкурентний рів. Компанії, які дотримуються нормативних актів, зберігаючи при цьому інноваційний потенціал, ймовірно, отримають довгострокові державні контракти та інституційну довіру. Фірми, що піддаються ризикам дипфейків або суперечкам щодо стеження, можуть зіткнутися з репутаційними проблемами та проблемами дотримання вимог.

Останні новини та продуктивність GOOGLE (GOOGL)

Майбутнє управління штучним інтелектом та демократична стабільність

Коли розглядаєш інтеграцію систем штучного інтелекту в усе, від уряду до військових операцій, легко усвідомити потребу в певних запобіжних заходах. Ці системи стали неймовірно потужними як у технічному, так і в соціальному плані. Сподіваємося, що компанії, що займаються штучним інтелектом, усвідомлять важливість свого підрозділу та дотримуватимуться етичних стандартів, поки не пізно. Наразі схоже, що прибуток виграє ці перегони.

Дізнайтеся про інші розробки штучного інтелекту тут.

Девід Гамільтон — постійний журналіст і біткойніст із давнім стажем. Спеціалізується на написанні статей про блокчейн. Його статті були опубліковані в багатьох біткойн-публікаціях, в тому числі Bitcoinlightning.com

Розголошення рекламодавця: Securities.io дотримується суворих редакційних стандартів, щоб надавати нашим читачам точні відгуки та рейтинги. Ми можемо отримати компенсацію, коли ви натискаєте посилання на продукти, які ми перевірили.

ЕСМА: контракти на різницю є складними інструментами та пов’язані з високим ризиком швидкої втрати грошей через кредитне плече. Від 74 до 89% рахунків роздрібних інвесторів втрачають гроші під час торгівлі CFD. Ви повинні подумати, чи розумієте ви, як працюють CFD, і чи можете ви дозволити собі ризикувати втратою грошей.

Відмова від інвестиційної поради: Інформація, що міститься на цьому веб-сайті, надається в освітніх цілях і не є інвестиційною порадою.

Відмова від торговельних ризиків: торгівля цінними паперами пов’язана з дуже високим рівнем ризику. Торгівля будь-якими типами фінансових продуктів, включаючи форекс, CFD, акції та криптовалюти.

Цей ризик вищий у випадку з криптовалютами через те, що ринки децентралізовані та нерегульовані. Ви повинні знати, що ви можете втратити значну частину свого портфеля.

Securities.io не є зареєстрованим брокером, аналітиком або інвестиційним радником.