sơ khai Cuộc xung đột giữa sức mạnh của trí tuệ nhân tạo và các chuẩn mực dân chủ – Securities.io
Kết nối với chúng tôi

Trí tuệ nhân tạo

Sự xung đột giữa sức mạnh của trí tuệ nhân tạo và các chuẩn mực dân chủ

mm

Securities.io duy trì các tiêu chuẩn biên tập nghiêm ngặt và có thể nhận được khoản bồi thường từ các liên kết được đánh giá. Chúng tôi không phải là cố vấn đầu tư đã đăng ký và đây không phải là lời khuyên đầu tư. Vui lòng xem công bố liên kết.

Hình ảnh ghép chân thực của một khuôn mặt kỹ thuật số AI phát sáng được kết nối bằng các đường mạng thần kinh với tòa nhà Quốc hội Hoa Kỳ được chiếu sáng lúc hoàng hôn, tượng trưng cho sự quản trị của AI và các thể chế dân chủ.

Khi công nghệ AI ngày càng phổ biến và mạnh mẽ, việc tìm kiếm sự cân bằng giữa các giá trị dân chủ và tiến bộ công nghệ ngày càng trở nên khó khăn. Một mặt, việc mọi người chia sẻ tầm nhìn của mình với số đông chưa bao giờ dễ dàng hơn thế.

Tuy nhiên, trí tuệ nhân tạo (AI) thiếu các rào cản, có nghĩa là nó liên tục vượt qua giới hạn của hầu hết mọi chuẩn mực xã hội. Dưới đây là cách các nhà phát triển AI tiếp tục cố gắng tạo ra sự hài hòa giữa khả năng của AI và các giá trị dân chủ, và tại sao điều đó có thể là bất khả thi.

Tóm tắt: Chính phủ tiếp tục gây áp lực lên các công ty trí tuệ nhân tạo để họ nới lỏng các quy định. Tình huống này đã dẫn đến xung đột nội bộ, các cuộc tranh luận gay gắt, và các công ty như Anthropic phải đối mặt với các hạn chế sử dụng của liên bang và các quyết định loại bỏ dần.

Trí tuệ nhân tạo đang định hình lại các biện pháp bảo vệ quyền tự do ngôn luận như thế nào?

Trí tuệ nhân tạo đã có tác động mạnh mẽ đến tự do ngôn luận. Thứ nhất, nó giúp mọi người dễ dàng tạo ra những hình ảnh sống động thể hiện tầm nhìn của mình và chia sẻ chúng với công chúng thông qua mạng xã hội. Thứ hai, nó làm giảm chi phí sản xuất xuống gần như bằng không, cho phép bất kỳ tổ chức nào cũng có thể truyền bá lý tưởng của mình trên môi trường ảo.

Các công cụ AI mang lại nhiều lợi ích, bao gồm khả năng dễ dàng thay đổi và tùy chỉnh thông điệp để phù hợp với từng nhóm đối tượng cụ thể. Ngoài ra, nội dung do AI tạo ra cho đến nay vẫn được xem xét dưới sự bảo vệ của Tu chính án thứ nhất của Hiến pháp Hoa Kỳ. Do đó, nó cho phép người tạo ra nội dung được tự do ngôn luận.

Ngược lại, trí tuệ nhân tạo đã dẫn đến sự tràn lan thông tin sai lệch. Ngày càng khó khăn hơn bao giờ hết để mọi người phân biệt được thông tin nào đến từ chuyên gia thực sự và thông tin nào được tạo ra bởi thuật toán. Đáng buồn thay, kết quả là niềm tin vào các hệ thống đang bị xói mòn.

Thuật toán mạng xã hội khuếch đại thông tin sai lệch về trí tuệ nhân tạo như thế nào?

Điều làm tăng thêm sự hỗn loạn là thuật toán của mạng xã hội có thể quảng bá deepfake vì chúng thường gây tranh cãi hơn, dẫn đến nhiều tương tác hơn. Điều này tạo ra một vòng xoáy trong đó thông tin sai lệch được hiển thị nổi bật hơn thông tin thật. Đáng buồn thay, không có quy định nào bắt buộc phải gắn nhãn cho thông tin sai lệch do AI tạo ra.

Trí tuệ nhân tạo và sự tham gia của công dân trong các hệ thống dân chủ

Trí tuệ nhân tạo mở ra cơ hội cho sự tham gia rộng rãi hơn của người dân. Hệ thống của nó giúp chính phủ và người dân dễ dàng hơn trong việc truyền đạt ý tưởng và theo dõi sự đồng thuận của công chúng. Thêm vào đó, nó đã chứng tỏ sự hữu ích trong việc tóm tắt các văn bản pháp luật phức tạp và chia sẻ dữ liệu quan trọng để cung cấp thông tin cho người dân.

Rủi ro giám sát bằng AI và mối lo ngại về quyền riêng tư dân chủ

Có một số rủi ro giám sát Những gì trí tuệ nhân tạo (AI) tạo ra song song với việc thúc đẩy sự tham gia. Các hệ thống này có thể dễ dàng theo dõi cử tri. Có những hệ thống AI có thể xem xét toàn bộ dấu vết kỹ thuật số của bạn và đưa ra đánh giá về quan điểm chính trị của bạn dựa trên hoạt động trực tuyến của bạn.

Ngoài ra, công nghệ này có thể được sử dụng để xác định danh tính một người dựa trên dấu vết kỹ thuật số hoặc sở thích của họ. Tất cả các công cụ này đều không yêu cầu lệnh khám xét như các công nghệ trước đây. Do đó, nguy cơ lạm dụng càng cao.

Vai trò của trí tuệ nhân tạo trong các cuộc bầu cử hiện đại và tính toàn vẹn của bầu cử

Trí tuệ nhân tạo mang lại nhiều lợi ích cho quá trình bầu cử. Thứ nhất, nó giúp việc giám sát kết quả dễ dàng hơn. Hệ thống AI cũng có thể giúp theo dõi bất kỳ sự gián đoạn nào liên quan đến việc đe dọa hoặc hăm dọa cử tri.

Công nghệ Deepfakes do AI tạo ra và cuộc khủng hoảng niềm tin chính trị.

Trong số tất cả những thông tin sai lệch do AI gây ra đang tạo nên sự hỗn loạn hiện nay, vấn đề chính xoay quanh công nghệ deepfake. Công nghệ này cho phép mọi người dễ dàng tạo ra bản sao của các quan chức nhà nước, chuyên gia trong ngành hoặc bất kỳ ai họ muốn, bao gồm cả các ứng cử viên chính trị.

Nguồn - BBC

Nguồn - BBC

Các video giả mạo chính trị tiếp tục gây ra nhiều rắc rối cho các quan chức và làm sai lệch thông tin đến công chúng. Vấn đề là những video giả mạo này gần như không thể phân biệt được với video thật. Do đó, chúng đã được hầu hết mọi nhóm sử dụng nhằm mục đích tạo ra hỗn loạn hoặc gieo rắc sự ngờ vực trong công chúng.

“Lợi nhuận từ kẻ nói dối” và sự xói mòn lòng tin của công chúng

Việc liên tục bị tấn công bởi các video deepfake do AI tạo ra đã gây ra một hiệu ứng bất ngờ khác – “lợi nhuận của kẻ nói dối”. Thuật ngữ này đề cập đến một sự việc có bằng chứng và thông tin xác thực, nhưng vẫn bị người bị cáo buộc phủ nhận là deepfake do AI tạo ra.

Chiến lược này làm suy giảm niềm tin vào hệ thống và tạo ra một kịch bản mà người dân bình thường không thể đưa ra quyết định sáng suốt. Nó cũng triệt tiêu mọi cơ hội tranh luận hợp lý, vì tất cả các bên đều bị phân cực về các vấn đề do thông tin sai lệch.

Ví dụ thực tế về việc sử dụng công nghệ Deepfake do AI gây ra trong bầu cử.

Gần đây đã có một số ví dụ về việc deepfake gây ra sự hỗn loạn trong các cuộc bầu cử. Một sự cố đáng chú ý xảy ra vào ngày 21 tháng 1 năm 2024, khi một cuộc gọi tự động giả mạo được sử dụng. Hệ thống trí tuệ nhân tạo này được thiết lập để liên hệ với những người đã đăng ký là đảng viên Dân chủ.

Khi họ trả lời, một Giọng nói giả mạo (deepfake) của Tổng thống Joe Biden được dùng để thúc giục họ “Họ giữ lại lá phiếu của mình cho tháng Mười Một.Các báo cáo cho thấy thông điệp của ông đã được gửi đến 20,000 người, dẫn đến việc nhiều người chọn không tham gia bầu cử như thông điệp đã nêu.

Khi các báo cáo về những cuộc gọi tự động được đưa ra, một cuộc điều tra đã được tiến hành. Tuy nhiên, lúc đó cuộc bầu cử đã kết thúc và không có lá phiếu nào được bỏ lại. Tình huống này chỉ là một trong nhiều ví dụ cho thấy sự nguy hiểm của việc can thiệp bầu cử bằng công nghệ deepfake của AI.

Vụ bê bối Deepfake bầu cử Slovakia năm 2023

Một ví dụ khác về sự can thiệp của trí tuệ nhân tạo vào bầu cử đã xảy ra ở... Cuộc bầu cử năm 2023 của SlovakiaTrong vụ việc này, một video giả mạo xuất hiện cho thấy lãnh đạo đảng Slovakia tiến bộ, Michal Šimečka, đang thảo luận về việc gian lận bầu cử. Video này sau đó đã được gắn nhãn là giả mạo, nhưng không phải trước khi nó nhận được hàng triệu lượt xem và chia sẻ trên TikTok, Facebook và Telegram.

Cách phát hiện Deepfake AI vào năm 2026

Phát hiện deepfake không phải là nhiệm vụ dễ dàng. Trước đây, công nghệ này thường để lại nhiều lỗi, chẳng hạn như nháy mắt không tự nhiên, ánh sáng kỳ lạ, hoặc thậm chí là sự không khớp môi. Nghiên cứu cho thấy con người thường kém trong việc phát hiện deepfake chất lượng cao, thường chỉ đạt mức độ gần như ngẫu nhiên tùy thuộc vào ngữ cảnh và phương thức.

Một cách để xác định xem video có phải là deepfake hay không là sử dụng Google để tìm kiếm nội dung gốc trong các khung hình. Họ cũng sẽ cố gắng sử dụng âm thanh để tìm kiếm những âm thanh bất tự nhiên. Trong một số trường hợp, việc phát hiện deepfake chất lượng cao là không thể nếu không có một số công cụ kỹ thuật.

Các công cụ phát hiện Deepfake hàng đầu bằng AI và những hạn chế của chúng

Trớ trêu thay, các công cụ AI lại là lựa chọn tốt nhất khi muốn xác định tính xác thực của một video. Các lựa chọn này bao gồm: Máy quét phần mềm sâu, Hậu vệ thực tế, Microsoft Trình xác thực video, Và nhiều hơn nữa.

Các giao thức này sử dụng các thuật toán độc quyền được thiết kế để xác định bất kỳ sự không nhất quán hoặc mẫu pixel nào được tìm thấy trong các khung hình video do AI tạo ra. Các hệ thống này cũng có thể đối chiếu các sự kiện với dữ liệu cục bộ, cho phép chúng phát hiện sự can thiệp của AI.

Ngay cả những công cụ phát hiện AI tốt nhất cũng không hoàn hảo, với các giao thức như... Nhận dạng sinh học Đạt điểm 98% trong các bài kiểm tra gần đây. Việc 2% số deepfake có thể bị phát hiện ngay cả bởi các hệ thống AI khác là điều đáng lo ngại trong tương lai.

Hiểu biết về truyền thông như một biện pháp phòng vệ chống lại sự thao túng của trí tuệ nhân tạo

Có lẽ cách tốt nhất để chống lại deepfake là tập trung vào việc nâng cao nhận thức về truyền thông trong cộng đồng. Cần phải có một nhãn dán bắt buộc để dễ dàng xác định xem một video là deepfake hay video thật.

Vì sao tự quản lý của các tập đoàn công nghệ lớn lại thất bại trong quản trị AI?

Lịch sử đã chứng minh rằng các công ty công nghệ không thể tự điều chỉnh. Trọng tâm của họ là lợi nhuận và sự đổi mới. Mong muốn này có thể phải trả giá bằng quyền riêng tư và sự thật. Do đó, không có kịch bản nào mà một công ty công nghệ có thể ngăn chặn hiệu quả việc deepfake lan truyền đến người dùng của họ.

Nỗ lực điều chỉnh AI của chính phủ trong năm 2026

Do các công ty công nghệ không có khả năng cung cấp các biện pháp bảo vệ cần thiết chống lại những vấn đề này, chính phủ đã bắt đầu đảm nhận vai trò đó. Tuy nhiên, kịch bản này không lý tưởng vì chính phủ không hiểu rõ công nghệ đến mức không thể tạo ra các biện pháp bảo vệ mà không kìm hãm sự đổi mới.

Các công ty AI đối đầu với Chính phủ: Cuộc xung đột chính sách năm 2026

Mâu thuẫn giữa chính phủ và các nhà cung cấp trí tuệ nhân tạo (AI) đã bắt đầu gia tăng trong vài tháng gần đây. Trong khi các nhà lập pháp mong muốn bảo vệ công chúng khỏi các video giả mạo và thông tin sai lệch, quân đội vẫn tiếp tục thúc đẩy việc tích hợp hoàn toàn các công cụ AI vào kho vũ khí của mình.

Mong muốn sử dụng công nghệ này như một phần của chuỗi tấn công đã dẫn đến một số tranh cãi công khai giữa các công ty và chính phủ Hoa Kỳ. Dưới đây là một số sự cố gần đây nhất, làm nổi bật những rủi ro và mặt tối tiềm tàng của chiến tranh trí tuệ nhân tạo.

Anthropic đối đầu với Bộ Quốc phòng Hoa Kỳ

nhân loại Hiện đang vướng vào một cuộc tranh cãi công khai với Bộ Quốc phòng Hoa Kỳ về việc sử dụng mô hình trí tuệ nhân tạo Claude của họ. Sự bất đồng xoay quanh việc cấp quyền truy cập không giới hạn vào trí tuệ nhân tạo này, điều có thể dẫn đến việc hệ thống này được sử dụng để tiến hành giám sát nội địa quy mô lớn.

Anthropic, được ra mắt vào năm 2021, cũng đã từ chối quyền truy cập đầy đủ do lo ngại về độ tin cậy của hệ thống nhắm mục tiêu bằng trí tuệ nhân tạo. Cả hai giới hạn đỏ này đều được Giám đốc điều hành của công ty, Dario Amodei, nêu ra, trong đó nhấn mạnh sự không đáng tin cậy là mối quan ngại chính.

Đề xuất giới hạn của Anthropic đối với việc sử dụng AI trong quân sự

Về phần này, Lầu Năm Góc lập luận rằng hợp đồng trị giá 200 triệu đô la của Lầu Năm Góc nên bao gồm quyền truy cập không bị hạn chế. Anthropic đã đưa ra một số nhượng bộ trong cuộc tranh luận, bao gồm việc cho phép sử dụng các hệ thống AI trong tên lửa và phòng thủ. Họ thậm chí còn tuyên bố sẽ chấp nhận các hoạt động của NSA, miễn là chúng không bao gồm việc giám sát hàng loạt công dân Mỹ.

Vì sao Lầu Năm Góc bác bỏ các hạn chế của Anthropic?

Tuy nhiên, điều đó vẫn chưa đủ đối với các quan chức Lầu Năm Góc. Ngay sau khi Anthropic phủ nhận tuyên bố này, chính quyền Trump đã cấm mọi tổ chức liên bang sử dụng sản phẩm của họ. Cụ thể, tổng thống đã gọi các sản phẩm của Anthropic là "mối đe dọa an ninh quốc gia". Các báo cáo xung quanh tranh chấp cũng đề cập đến Đạo luật Sản xuất Quốc phòng như một công cụ gây áp lực tiềm năng, mặc dù lý do pháp lý chính xác cần được mô tả cẩn thận trừ khi được trích dẫn trực tiếp từ lệnh.

Động thái này đồng nghĩa với việc Anthropic sẽ không thể giành được bất kỳ hợp đồng quân sự hoặc chính phủ nào trong tương lai, đẩy công ty vào tình thế khó xử khi phải lựa chọn giữa các giá trị cốt lõi và lợi nhuận.

OpenAI và xAI đã phản ứng như thế nào trước sự thay đổi của Lầu Năm Góc?

Đối thủ cạnh tranh của Anthropic là OpenAI nhanh chóng thế chỗ Anthropic, hứa hẹn tuân thủ đầy đủ các quy định của Lầu Năm Góc. Theo đó, công ty đã ký một thỏa thuận mật với chính phủ, bao gồm việc sử dụng hợp pháp không hạn chế hệ thống AI của mình.

Các ứng dụng quân sự hiện tại của trí tuệ nhân tạo

Đã có rất nhiều ví dụ về các hệ thống trí tuệ nhân tạo giúp tăng tốc độ và quy mô chiến tranh. Các hệ thống này được tối ưu hóa để hoạt động song hành với số lượng ngày càng tăng của các hệ thống tự động, chẳng hạn như công nghệ máy bay không người lái theo đàn.

Trí tuệ nhân tạo được xem là yếu tố thay đổi cuộc chơi vì nó có thể kết hợp dữ liệu đầu vào từ một lượng lớn cảm biến để cung cấp khả năng nhắm mục tiêu nhanh hơn và nhiều hơn nữa. Nó cũng rất quan trọng trong lĩnh vực hậu cần và tài chính của quân đội, nơi nó có thể giúp đảm bảo bảo trì phòng ngừa và các nhiệm vụ quan trọng khác được thực hiện đúng tiến độ.

Việc Israel sử dụng hệ thống nhắm mục tiêu bằng trí tuệ nhân tạo ở Gaza

Việc sử dụng các hệ thống nhắm mục tiêu bằng trí tuệ nhân tạo đã được nhấn mạnh trong chiến dịch Gaza của Israel. Các hoạt động này đã tận dụng các công cụ như... Hoa oải hương Đối chiếu các hoạt động của một người với các hành vi có khả năng mang tính cực đoan.

Công cụ này cho phép quân đội Israel theo dõi và nhắm mục tiêu vào các chiến binh Hamas cấp thấp trước khi ném bom vào nhà của họ. Đáng chú ý, hệ thống này được cho là có tỷ lệ sai sót 10% theo như các nhân viên quân sự Israel ghi nhận. Tuy nhiên, con số đó còn gây tranh cãi.

Giải thích về Hệ thống Nhắm mục tiêu AI “Phúc âm”

Một công cụ AI khác của Israel có tên gọi sách phúc âm Hệ thống này được thiết lập để cung cấp 100 mục tiêu mỗi ngày. Nó đối chiếu các chuyển động và dữ liệu khác để xác định vị trí các tòa nhà tiềm năng có thể chứa máy bay chiến đấu của đối phương. Hệ thống này thường được sử dụng cùng với “"Bố đâu rồi?" Chương trình trí tuệ nhân tạo cho phép tự động theo dõi những người được đánh dấu.

Trí tuệ nhân tạo trong thực thi pháp luật: Phát hiện mối đe dọa và rủi ro về quyền riêng tư

Việc sử dụng hệ thống trí tuệ nhân tạo trong thực thi pháp luật là một cuộc tranh luận gay gắt khác. Nhiều người ngạc nhiên khi biết rằng hệ thống của ChatGPT đã gắn cờ... Vụ xả súng hàng loạt tại Tumbler Ridge, CanadaJesse Van Rootselaar được xem là một mối đe dọa tiềm tàng.

Cụ thể, hệ thống AI đã ghi nhận các vi phạm chính sách tám tháng trước đó, trong đó người dùng liên tục đặt các câu hỏi liên quan đến bạo lực súng đạn. Câu hỏi này đã được gửi đến một số người kiểm duyệt, dẫn đến việc tài khoản bị cấm và người dùng bị gắn cờ.

Vì sao các hệ thống cảnh báo bằng AI thường không kích hoạt được sự can thiệp?

Bất chấp những tín hiệu cảnh báo vang lên, công ty này tuyên bố rằng tài khoản đó không vượt quá ngưỡng mà họ coi là mối đe dọa nghiêm trọng. Do đó, các nhà chức trách chưa bao giờ được thông báo. Nếu được thông báo, họ có thể đã phỏng vấn và cứu sống được tám người vào ngày 10 tháng 2 năm 2026.

Điều thú vị là, các hồ sơ nội bộ của công ty cho thấy đã có một cuộc tranh luận về việc thông báo cho các cơ quan chức năng sau khi tài khoản bị cấm. Sau đó, người ta phát hiện ra rằng kẻ xả súng đã mở một tài khoản khác để tránh bị cấm trước khi thực hiện các vụ tấn công.

Các quan chức chính phủ lập luận rằng OpenAI có trách nhiệm thông báo cho nhà chức trách về cuộc trò chuyện đáng ngờ, và nếu họ làm vậy, điều đó có thể đã giúp cứu sống nhiều người. Ngược lại, công ty tuyên bố sẽ cải thiện việc chia sẻ dữ liệu và thời gian phản hồi, đồng thời hạ thấp ngưỡng chấp nhận thông tin.

Bức thư về đạo đức trí tuệ nhân tạo “Chúng ta sẽ không bị chia rẽ”

Các "Chúng ta sẽ không bị chia rẽ - Lá thưBức thư này là lời kêu gọi công khai các nhân viên AI phản đối vũ khí tự động hoàn toàn và hoạt động giám sát hàng loạt, đồng thời thúc đẩy các cam kết an toàn có thể thực thi trên toàn ngành. Bức thư kêu gọi các nhà phát triển AI không hỗ trợ vũ khí tự động hoàn toàn hoặc các hoạt động giám sát hàng loạt dưới bất kỳ hình thức nào.

Nó cũng tạo ra một danh sách các nguyên tắc an toàn chung được thiết kế để ngăn chặn kịch bản AI vượt tầm kiểm soát. Những hướng dẫn này bao gồm các mục như việc có sự tham gia của con người để giám sát và phê duyệt bất kỳ hoạt động gây chết người nào. Nó cũng đề cao tính minh bạch để ngăn chặn sự lạm dụng.

Mục tiêu cốt lõi của bức thư là tạo ra một bộ tiêu chuẩn đạo đức mà tất cả các công ty AI có thể tuân theo để ngăn chặn công nghệ này biến cuộc sống của mọi người trên hành tinh thành địa ngục. Bức thư được đưa ra vào thời điểm quan trọng trong việc ứng dụng AI khi quân đội ngày càng phụ thuộc vào công nghệ này cho các hoạt động nhắm mục tiêu và thu thập thông tin.

Quan điểm của các công ty AI lớn về việc sử dụng trong chính phủ và quân đội.

Khi xem xét hai kịch bản rất khác nhau này, bạn có thể thấy các công ty AI tiếp tục hợp nhất hoạt động với các cơ quan chính phủ như thế nào. Việc hợp nhất này sẽ đòi hỏi sự cân bằng tinh tế giữa năng lực với các biện pháp bảo vệ và tính minh bạch để ngăn chặn sự lạm dụng. Dưới đây là lập trường hiện tại của mỗi công ty về hoạt động với chính phủ.

Vuốt để cuộn

Provider lập trường Tình trạng hợp đồng
nhân loại Truy cập hạn chế Việc sử dụng ở cấp liên bang bị hạn chế/loại bỏ dần.
Google Hỗ trợ toàn diện cho doanh nghiệp Các hợp đồng của CDAO được báo cáo (~200 triệu đô la)
OpenAI Các triển khai “sử dụng hợp pháp” (các biện pháp bảo vệ được tuyên bố) Báo cáo về việc triển khai lực lượng quốc phòng
XAI Sự sẵn lòng "sử dụng hợp pháp" đã được báo cáo. Công việc của chính phủ được báo cáo

nhân loại

Anthropic vẫn kiên định với các tiêu chuẩn cốt lõi của mình, tìm cách duy trì các giới hạn nghiêm ngặt đối với việc nhắm mục tiêu tự động và các trường hợp sử dụng giám sát hàng loạt. Tuy nhiên, dường như họ đang phải trả giá đắt cho la bàn đạo đức của mình, khi các cơ quan liên bang bắt đầu hạn chế hoặc loại bỏ dần việc sử dụng các mô hình của họ trong một số môi trường nhất định.

OpenAI

OpenAI hoàn toàn ủng hộ việc tích hợp với chính phủ. Công ty này rất muốn giành lấy vị thế khi Anthropics mất hợp đồng với Bộ Quốc phòng do vẫn kiên định với sứ mệnh cốt lõi của mình. OpenAI đã đồng ý triển khai các mô hình trong môi trường quốc phòng theo khuôn khổ “sử dụng hợp pháp”. Công ty này tuyên bố rằng họ nghiêm cấm giám sát hàng loạt trong nước và yêu cầu con người phải chịu trách nhiệm về việc sử dụng vũ lực.

XAI

Công ty xAI của Elon Musk là một người ủng hộ mạnh mẽ việc tích hợp trí tuệ nhân tạo vào học thuyết chiến tranh. Các báo cáo cho thấy xAI đã thể hiện sự sẵn lòng hỗ trợ các triển khai bí mật của chính phủ theo các điều khoản "sử dụng hợp pháp", mặc dù các chi tiết hoạt động vẫn còn hạn chế.

Google

Google (GOOGL -2.34%) Google đã trải qua nhiều cuộc tranh luận nội bộ về việc sử dụng hệ thống của mình trong chiến tranh. Công ty đã có hơn 300 nhân viên chủ chốt ký một bức thư ngỏ kêu gọi các nhà cung cấp AI từ chối các hợp đồng mở với Lầu Năm Góc. Tuy nhiên, Google có các hợp đồng trị giá hơn 200 triệu đô la với CDAO, điều đó có nghĩa là họ đang chịu áp lực rất lớn phải nhượng bộ.

Takeaway của nhà đầu tư: Quản trị AI đang nổi lên như một lợi thế cạnh tranh. Các công ty tuân thủ khung pháp lý trong khi vẫn duy trì năng lực đổi mới có nhiều khả năng giành được các hợp đồng dài hạn với chính phủ và sự tin tưởng của các tổ chức. Các công ty đối mặt với rủi ro liên quan đến deepfake hoặc các tranh cãi về giám sát có thể gặp khó khăn về uy tín và tuân thủ pháp luật.

Tin tức và hiệu suất mới nhất của GOOGLE (GOOGL)

Tương lai của quản trị AI và sự ổn định dân chủ

Khi xem xét sự tích hợp của các hệ thống AI trong mọi lĩnh vực, từ chính phủ đến các hoạt động quân sự, người ta dễ dàng nhận thấy cần có một số biện pháp bảo vệ. Các hệ thống này đã trở nên vô cùng mạnh mẽ cả về mặt kỹ thuật và xã hội. Hy vọng rằng các công ty AI sẽ nhận ra tầm quan trọng của việc phân chia lĩnh vực hoạt động và tuân thủ các tiêu chuẩn đạo đức trước khi quá muộn. Hiện tại, dường như lợi nhuận sẽ thắng trong cuộc đua này.

Tìm hiểu thêm về các phát triển khác của trí tuệ nhân tạo đây.

David Hamilton là một nhà báo toàn thời gian và một nhà nghiên cứu bitcoin lâu năm. Anh ấy chuyên viết bài về blockchain. Các bài viết của ông đã được xuất bản trên nhiều ấn phẩm bitcoin bao gồm Bitcoinlightning.com

Tiết lộ của nhà quảng cáo: Securities.io cam kết tuân thủ các tiêu chuẩn biên tập nghiêm ngặt để cung cấp cho độc giả những đánh giá và xếp hạng chính xác. Chúng tôi có thể nhận được tiền bồi thường khi bạn nhấp vào liên kết đến các sản phẩm mà chúng tôi đã đánh giá.

ESMA: CFD là công cụ phức tạp và có nguy cơ mất tiền nhanh chóng do đòn bẩy. Khoảng 74-89% tài khoản nhà đầu tư bán lẻ bị mất tiền khi giao dịch CFD. Bạn nên xem xét liệu bạn có hiểu cách hoạt động của CFD hay không và liệu bạn có đủ khả năng chấp nhận rủi ro mất tiền cao hay không.

Tuyên bố miễn trừ trách nhiệm tư vấn đầu tư: Thông tin trên trang web này được cung cấp cho mục đích giáo dục và không phải là lời khuyên đầu tư.

Tuyên bố từ chối trách nhiệm rủi ro giao dịch: Có mức độ rủi ro rất cao liên quan đến giao dịch chứng khoán. Giao dịch bất kỳ loại sản phẩm tài chính nào bao gồm ngoại hối, CFD, cổ phiếu và tiền điện tử.

Rủi ro này cao hơn với Tiền điện tử do thị trường được phân cấp và không được quản lý. Bạn nên lưu ý rằng bạn có thể mất một phần đáng kể danh mục đầu tư của mình.

Securities.io không phải là nhà môi giới, nhà phân tích hoặc cố vấn đầu tư đã đăng ký.