Diễn đàn của người dân Quảng Ngãi
giới thiệu | liên lạc | lưu niệm

 April 17, 2025
Trang đầu Hình ảnh, sinh hoạt QN:Đất nước/con người Liên trường Quảng Ngãi Biên khảo Hải Quân HQ.VNCH HQ.Thế giới Kiến thức, tài liệu Y học & đời sống Phiếm luận Văn học Tạp văn, tùy bút Cổ văn thơ văn Kim văn thơ văn Giải trí Nhạc Trang Anh ngữ Trang thanh niên Linh tinh Tác giả Nhắn tin, tìm người

  Kiến thức, tài liệu
MỘT THẾ GIỚI BỊ CHIA RẼ VÌ TRÍ TUỆ NHÂN TẠO
Webmaster
Các bài liên quan:
    BÍ MẬT ẨN GIẤU CỦA TRÍ TUỆ NHÂN TẠO - TRUNG TÂM DỮ LIỆU
    TRÍ TUỆ NHÂN TẠO SẼ BIẾN ĐỔI THẾ GIỚI VẬT CHẤT NHƯ THẾ NÀO?
    TRÍ TUỆ NHÂN TẠO SẼ TÁC ĐỘNG ĐẾN SỰ RĂN ĐE NHƯ THẾ NÀO
    CÓ CON NGƯỜI TRONG MÁY KHÔNG? TRÍ TUỆ NHÂN TẠO VÀ CHIẾN TRANH TRONG TƯƠNG LAI.
    15 RỦI RO LỚN NHẤT CỦA TRÍ TUỆ NHÂN TẠO
    TRÍ TUỆ NHÂN TẠO ĐANG ĐỊNH NGHĨA LẠI CHIẾN TRANH TRUNG ĐÔNG NHƯ THẾ NÀO?
    TRÍ TUỆ NHÂN TẠO ĐÃ TÌM RA CÁCH ĐÁNH LỪA CON NGƯỜI
    TÍCH HỢP TRÍ TUỆ NHÂN TẠO: KẾT HỢP SỨ MỆNH, HỆ THỐNG VÀ DỮ LIỆU
    GIÁM ĐỐC NSA CÔNG BỐ TRUNG TÂM AN NINH TRÍ TUỆ NHÂN TẠO MỚI, “ĐẦU MỐI” CHO VIỆC SỬ DỤNG AI CỦA CHÍNH PHỦ, NGÀNH CÔNG NGHIỆP QUỐC PHÒNG
    HOA THỊNH ĐỐN CÁ ĐỘ VÀO CHIẾN TRANH TRÍ TUỆ NHÂN TẠO

 

Artificial Intelligence

(A WORLD DIVIDED OVER ARTIFICIAL INTELLIGENCE)

By Aziz Huq

Foreign Affairs

Published on March 11, 2024.

 

Địa chính trị cản trở quy định toàn cầu về một công nghệ mạnh mẽ.

 

 

Ảnh: Một phụ tá trí tuệ nhân tạo được trưng bày ở Barcelona,

tháng 2/2024. Bruna Casas/Reuters.

 

Vào tháng 11/2023, một số quốc gia đã ban hành một thông cáo chung hứa hẹn hợp tác quốc tế mạnh mẽ trong việc tính đến những thách thức của trí tuệ nhân tạo (AI). Thật đáng ngạc nhiên đối với các quốc gia thường mâu thuẫn về các vấn đề pháp lý, Tàu cộng, Hoa Kỳ và Liên minh châu Âu đều đã ký tài liệu, đưa ra một cái nhìn hợp lý, rộng rãi về cách giải quyết các rủi ro của AI "biên giới" - loài mô hình phát sinh tiên tiến nhất được minh họa bởi ChatGPT. Thông cáo xác định tiềm năng lạm dụng AI cho "thông tin sai lệch" và nhen nhóm các rủi ro "nghiêm trọng, thậm chí thảm khốc" trong an ninh mạng và công nghệ sinh học. Cùng tháng đó, các quan chức Hoa Kỳ và Trung Cộng đã đồng ý tổ chức các cuộc đàm phán vào mùa xuân về hợp tác về quy định AI. Các cuộc đàm phán này cũng sẽ tập trung vào cách giải quyết rủi ro của công nghệ mới và bảo đảm an toàn cho nó.

 

Thông qua các thông cáo đa quốc gia và các cuộc đàm phán song phương, một khuôn khổ quốc tế để điều chỉnh AI dường như đang hợp nhất. Hãy xem xét kỹ sắc lệnh hành pháp tháng 10/2023 của Tổng thống Mỹ Joe Biden về AI; Đạo luật AI của EU, đã được Nghị viện châu Âu thông qua vào tháng 12/2023 và có thể sẽ được hoàn thiện vào cuối năm nay; hoặc danh sách các quy định gần đây của Trung Cộng về chủ đề này, và một mức độ hội tụ đáng ngạc nhiên xuất hiện. Họ có nhiều điểm chung. Các chế độ này chia sẻ rộng rãi mục tiêu chung là ngăn chặn việc lạm dụng AI mà không hạn chế sự đổi mới trong quá trình này. Những người lạc quan đã đưa ra các đề xuất về quản lý quốc tế chặt chẽ hơn về AI, chẳng hạn như các ý tưởng được trình bày trên tạp chí Foreign Affairs của nhà phân tích địa chính trị Ian Bremmer và doanh nhân Mustafa Suleyman và kế hoạch được đưa ra bởi Suleyman và Eric Schmidt, cựu Giám đốc điều hành của Google, trên tờ Financial Times, trong đó họ kêu gọi thành lập một hội đồng quốc tế tương tự như Ủy ban liên chính phủ về biến đổi khí hậu của Liên Hợp Quốc để "thông báo cho các chính phủ về tình trạng hiện tại của Khả năng AI và đưa ra dự đoán dựa trên bằng chứng về những gì sắp tới".

 

Nhưng những kế hoạch đầy tham vọng này nhằm tạo ra một chế độ quản trị toàn cầu mới cho AI có thể va chạm với một trở ngại đáng tiếc: thực tế lạnh lùng. Các cường quốc, cụ thể là Trung Cộng, Hoa Kỳ và EU, có thể nhấn mạnh công khai rằng họ muốn hợp tác điều chỉnh AI, nhưng hành động của họ hướng tới một tương lai phân mảnh và cạnh tranh. Các chế độ pháp lý khác nhau đang nổi lên sẽ làm thất vọng bất kỳ sự hợp tác nào khi tiếp cận chất bán dẫn, thiết lập các tiêu chuẩn kỹ thuật và quy định về dữ liệu và thuật toán. Con đường này không dẫn đến một không gian toàn cầu mạch lạc, liền kề cho các quy tắc thống nhất liên quan đến AI mà dẫn đến một bối cảnh chia rẽ của các khối pháp lý chiến tranh - một thế giới trong đó ý tưởng cao cả rằng AI có thể được khai thác vì lợi ích chung bị đập tan trên đá của căng thẳng địa chính trị.

 

NHỮNG CON CHIP TRÊN VAI CỦA HỌ - CHIPS ON THEIR SHOULDERS

 

Khu vực xung đột nổi tiếng nhất liên quan đến AI là cuộc đấu tay đôi đang diễn ra giữa Tàu Cộng và Hoa Kỳ trên thị trường bán dẫn toàn cầu. Vào tháng 10/2022, Bộ Thương mại Mỹ đã ban hành chế độ cấp phép toàn diện đầu tiên cho việc xuất khẩu chip tiên tiến và công nghệ sản xuất chip. Những con chip này là cần thiết để sản xuất các thiết bị có thể chạy các mô hình AI tiên tiến được sử dụng bởi OpenAI, Anthropic và các công ty khác trên biên giới công nghệ. Các biện pháp kiểm soát xuất khẩu không chỉ áp dụng cho các công ty Hoa Kỳ mà còn cho bất kỳ nhà sản xuất nào sử dụng phần mềm hoặc công nghệ đó của Hoa Kỳ; trên thực tế, các quy định kiểm soát xuất khẩu của Washington có phạm vi toàn cầu. Vào tháng 8/2023, Trung Cộng đã đáp trả bằng các biện pháp kiểm soát xuất khẩu của riêng mình đối với các khoáng sản hiếm gallium và gecmani - cả hai thành phần cần thiết để sản xuất chip. Hai tháng sau, chính quyền Biden đã thắt chặt các quy định trước đó bằng cách mở rộng phạm vi các sản phẩm bán dẫn được bảo hiểm.

 

Cạnh tranh ăn miếng trả miếng (Tit-for-tat) về chất bán dẫn là có thể vì luật thương mại quốc tế theo Tổ chức Thương mại Thế giới không đủ hạn chế các chính phủ trong việc thiết lập các biện pháp kiểm soát xuất khẩu. Cơ quan này hiếm khi giải quyết vấn đề này trong quá khứ. Và kể từ khi cựu Tổng thống Mỹ Donald Trump vô hiệu hóa cơ quan phúc thẩm của WTO vào năm 2018 bằng cách ngăn chặn việc bổ nhiệm các thành viên mới, đã có rất ít triển vọng về các quy tắc chính thức mới có thể được thực thi một cách đáng tin cậy bởi một tổ chức toàn cầu có thẩm quyền. Kết quả là, những phát súng này trong cuộc chiến chip giữa Tàu Cộng và Mỹ đang làm xói mòn thương mại tự do và tạo ra những tiền lệ gây bất ổn trong luật thương mại quốc tế. Chúng có thể sẽ hoạt động như một sự thay thế hoàn toàn cho luật như vậy trong thời gian tới, đảm bảo mức độ thương mại thấp hơn và căng thẳng địa chính trị lớn hơn.

 

Nhưng cuộc chiến chip chỉ là mặt trận cao cấp nhất trong cuộc cạnh tranh về các thành phần cần thiết của AI. Khu vực xung đột thứ hai liên quan đến các tiêu chuẩn kỹ thuật. Các tiêu chuẩn như vậy từ lâu đã củng cố việc sử dụng bất kỳ công nghệ chính nào: hãy tưởng tượng cố gắng xây dựng một tuyến đường sắt trên khắp Hoa Kỳ nếu mỗi tiểu bang có một khổ bắt buộc hợp pháp khác nhau cho đường rầy xe lửa. Sự trỗi dậy của kỷ nguyên kỹ thuật số đã chứng kiến sự gia tăng của các loại tiêu chuẩn khác nhau để cho phép sản xuất và mua các sản phẩm phức tạp trên toàn thế giới. Ví dụ, iPhone 13 có gần 200 linh kiện có nguồn gốc từ hơn chục quốc gia. Nếu các yếu tố khác nhau này hoạt động cùng nhau và tạo ra một đối tượng có thể liên lạc với các tháp di động, vệ tinh và Internet of Things thì chúng phải chia sẻ một bộ thông số kỹ thuật. Việc lựa chọn các tiêu chuẩn như vậy có ảnh hưởng sâu sắc. Nó xác định liệu và làm thế nào những đổi mới có thể tìm thấy mục đích sử dụng thương mại hoặc đạt được thị phần. Như nhà công nghiệp người Đức Werner von Seimens đã nói vào cuối những năm 1800, "Người sở hữu các tiêu chuẩn, sở hữu thị trường (He who owns the standards, owns the market)".

 

"Cuộc chiến chip giữa Tàu và Mỹ đang tạo ra những tiền lệ gây bất ổn trong luật thương mại quốc tế" (The chip war between China and the United States is setting destabilizing precedents in international trade law).

 

Hiện nay, hàng loạt cơ quan ít được biết đến như Liên minh Viễn thông Quốc tế, Ủy ban Kỹ thuật Điện Quốc tế, Tổ chức Tiêu chuẩn hóa Quốc tế và Lực lượng Đặc nhiệm Kỹ thuật Internet đàm phán các tiêu chuẩn kỹ thuật cho công nghệ số nói chung. Có trụ sở tại Geneva và hoạt động như các tổ chức phi lợi nhuận hoặc là chi nhánh của Liên Hợp Quốc, các cơ quan này đóng một vai trò quan trọng trong việc thiết lập các điều khoản của thương mại và cạnh tranh kỹ thuật số toàn cầu. Các thành viên của các tổ chức này bỏ phiếu về các tiêu chuẩn theo quy tắc đa số. Cho đến nay, các diễn đàn đó đã bị chi phối bởi các quan chức và công ty Mỹ và châu Âu. Nhưng điều đó đang thay đổi.

 

Trong hai thập kỷ qua, Trung Cộng ngày càng đảm nhận vai trò lãnh đạo trong các ủy ban kỹ thuật của một số cơ quan này, nơi họ đã thúc đẩy các tiêu chuẩn ưa thích của mình. Kể từ năm 2015, nó đã tích hợp các tiêu chuẩn kỹ thuật của riêng mình trong các dự án của Sáng kiến Vành đai và Con đường, một chương trình đầu tư cơ sở hạ tầng toàn cầu rộng lớn. Tính đến năm 2019, nó đã đạt được 89 thỏa thuận tiêu chuẩn hóa với 39 quốc gia và khu vực. Vào tháng 3 năm 2018, Trung Cộng đã đưa ra một chiến lược khác, "Tiêu chuẩn Trung Cộng 2035", kêu gọi vai trò của Tàu Cộng mạnh mẽ hơn nữa trong việc thiết lập tiêu chuẩn quốc tế và yêu cầu sự phối hợp dân sự-quân sự lớn hơn trong nội bộ Trung Quốc về việc lựa chọn các tiêu chuẩn. Có thể dự đoán, một số nhà phân tích ngành công nghiệp ở Hoa Kỳ đã phản ứng bằng cách kêu gọi Washington chiến đấu "chủ động hơn... Ảnh hưởng của Trung Cộng đối với các cơ quan thiết lập tiêu chuẩn".

 

Đây không phải là lần đầu tiên các tiêu chuẩn kỹ thuật vướng vào căng thẳng địa chính trị. Vào tháng 8/2019, các lệnh trừng phạt của Mỹ đối với gã khổng lồ viễn thông Trung Cộng Huawei đã khiến Trung Cộng thiết lập các tiêu chuẩn tiết kiệm năng lượng của riêng mình không tương thích với các tiêu chuẩn phương Tây. Kết quả là sự phá vỡ các tiêu chuẩn kỹ thuật để quản lý cách thức hoạt động của các trung tâm dữ liệu lớn, vốn là trung tâm của nền kinh tế kỹ thuật số. Trong bối cảnh AI, các thị trường được phân tách bởi các tiêu chuẩn kỹ thuật khác nhau sẽ làm chậm sự phổ biến của các công cụ mới. Nó cũng sẽ gây khó khăn hơn cho việc phát triển các giải pháp kỹ thuật có thể được áp dụng trên toàn cầu cho các vấn đề như tin xuyên tạc hoặc nội dung khiêu dâm deepfake. Trên thực tế, các vấn đề mà các cường quốc đã xác định là quan trọng để cùng nhau giải quyết sẽ trở nên khó giải quyết hơn.

 

Sự chia rẽ về các tiêu chuẩn kỹ thuật liên quan đến AI đã xuất hiện. Ví dụ, Đạo luật AI của EU bắt buộc sử dụng "các biện pháp quản lý rủi ro phù hợp". Để xác định thuật ngữ này, đạo luật xem xét ba tổ chức thiết lập tiêu chuẩn độc lập sẽ phát triển và ban hành các tiêu chuẩn cụ thể theo ngữ cảnh liên quan đến rủi ro an toàn AI. Điều đó nói lên rằng ba cơ quan được quy định trong luật cho đến nay là châu Âu, không phải các cơ quan quốc tế được đề cập ở trên. Đây dường như là một nỗ lực khá có ý thức để phân biệt quy định của châu Âu với các đối tác Mỹ và Tàu. Và nó hứa hẹn Balkan hóa các tiêu chuẩn liên quan đến AI.

 

VẬT LIỆU TỐI CỦA HỌ - THEIR DARK MATERIALS

 

Xung đột địa chính trị không chỉ định hình một bối cảnh pháp lý quốc tế mới cho các mặt hàng vật chất tạo nên AI. Nó cũng đang làm sâu sắc thêm sự chia rẽ về các tài sản vô hình cần thiết cho công nghệ. Một lần nữa, chế độ pháp lý mới nổi củng cố một trật tự thế giới bị chia rẽ, trong đó các giải pháp tập thể, trên diện rộng có khả năng thất bại.

 

Đầu vào vô hình quan trọng đầu tiên của AI là dữ liệu. Các công cụ AI như ChatGPT được xây dựng trên các kho dữ liệu khổng lồ. Tuy nhiên, để thành công, họ cũng cần nhiều lô dữ liệu được nhắm mục tiêu hơn. Các công cụ AI tạo ra, có thể tạo ra các đoạn văn bản hoặc video mở rộng dựa trên lời nhắc ngắn, cực kỳ mạnh mẽ. Nhưng chúng thường không phù hợp với các nhiệm vụ rất cụ thể. Chúng phải được tinh chỉnh với các bộ dữ liệu nhỏ hơn, theo ngữ cảnh cụ thể để thực hiện một công việc cụ thể. Ví dụ, một công ty sử dụng công cụ AI tạo ra cho bot dịch vụ khách hàng của mình có thể đào tạo một công cụ như vậy trên bản ghi tương tác của người tiêu dùng. Nói tóm lại, AI cần cả kho dữ liệu lớn và các nhóm dữ liệu nhỏ hơn, riêng biệt hơn.

 

Do đó, các công ty và quốc gia sẽ luôn cạnh tranh về quyền truy cập vào các loại dữ liệu khác nhau. Xung đột quốc tế về luồng dữ liệu không phải là mới: Hoa Kỳ và EU liên tục xung đột về các điều khoản theo đó dữ liệu có thể vượt Đại Tây Dương sau khi Tòa án Công lý của EU bác bỏ, vào năm 2015, một thỏa thuận bến cảng an toàn cho phép các công ty di chuyển dữ liệu giữa các máy chủ ở Hoa Kỳ và Châu Âu. Nhưng quy mô của những bất đồng như vậy đang gia tăng, định hình cách dữ liệu sẽ chảy và khiến dữ liệu khó vượt qua biên giới quốc gia hơn.

 

"Chế độ pháp lý mới nổi liên quan đến AI sẽ làm thất vọng các giải pháp tập thể, trên diện rộng" (The emerging legal regime regarding AI will frustrate broad-based, collective solutions).

 

Cho đến gần đây, Hoa Kỳ đã thúc đẩy một mô hình chuyển dữ liệu toàn cầu miễn phí ra khỏi cam kết mở cửa thị trường và như một mệnh lệnh an ninh quốc gia - một thế giới hội nhập hơn, các quan chức tin rằng, sẽ là một thế giới an toàn hơn. Washington đã tích cực sử dụng các thỏa thuận thương mại song phương để thúc đẩy tầm nhìn này. Ngược lại, luật pháp châu Âu từ lâu đã phản ánh sự thận trọng hơn về quyền riêng tư dữ liệu. Về phần mình, Trung Quốc và Ấn Độ đã ban hành luật pháp trong nước bắt buộc, theo những cách khác nhau, "nội địa hóa dữ liệu", với những hạn chế lớn hơn đối với luồng dữ liệu xuyên biên giới.

 

Kể từ khi AI quét đến giai đoạn trung tâm, những quan điểm này đã xáo trộn. Ấn Độ gần đây đã nới lỏng lệnh cấm, cho thấy rằng họ sẽ cho phép luồng dữ liệu lớn hơn đến các quốc gia khác - do đó mang lại cho họ ảnh hưởng lớn hơn đối với các điều khoản của thương mại kỹ thuật số toàn cầu. Trung Quốc dường như cũng đang nới lỏng các quy tắc nội địa hóa khi nền kinh tế suy thoái, cho phép nhiều công ty lưu trữ dữ liệu bên ngoài biên giới Trung Quốc. Nhưng thật đáng ngạc nhiên, Hoa Kỳ đang đi theo hướng ngược lại. Các chính trị gia Mỹ lo lắng về mối quan hệ của ứng dụng truyền thông xã hội TikTok với chính phủ Trung Quốc đã gây áp lực buộc công ty phải cam kết hạn chế luồng dữ liệu đến Trung Quốc. (TikTok, bằng sự thừa nhận của chính mình, đã tôn trọng cam kết này một cách không nhất quán.) Vào tháng 10/2023, đại diện thương mại Mỹ thông báo rằng chính phủ liên bang đã từ bỏ các yêu cầu lâu dài của nước này tại WTO về việc bảo vệ các luồng dữ liệu xuyên biên giới và cấm nội địa hóa dữ liệu bắt buộc. Nếu Washington duy trì con đường này, thế giới sẽ mất đi người ủng hộ chính cho các luồng dữ liệu tự do. Nhiều bản địa hóa dữ liệu có thể sẽ xảy ra sau đó.

 

Cuối cùng, cạnh tranh toàn cầu đang bắt đầu xuất hiện về việc liệu và khi nào các quốc gia có thể yêu cầu tiết lộ các thuật toán làm nền tảng cho các công cụ AI. Ví dụ, Đạo luật AI được đề xuất của EU yêu cầu các công ty lớn cung cấp cho các cơ quan chính phủ quyền truy cập vào hoạt động bên trong của một số mô hình nhất định để đảm bảo rằng chúng không có khả năng gây tổn hại cho các cá nhân. Tương tự, các quy định gần đây của Trung Quốc liên quan đến AI được sử dụng để tạo nội dung (bao gồm cả AI tạo ra) yêu cầu các công ty phải đăng ký với chính quyền và hạn chế sử dụng công nghệ của họ. Cách tiếp cận của Mỹ phức tạp hơn và không hoàn toàn mạch lạc. Một mặt, sắc lệnh hành pháp của ông Biden vào tháng 10/2023 yêu cầu một danh mục tiết lộ về "mô hình nền tảng lưỡng dụng" - những mô hình tiên tiến có thể có cả mục đích thương mại và liên quan đến bảo mật. Mặt khác, các thỏa thuận thương mại mà chính quyền Trump và Biden theo đuổi đã bao gồm nhiều điều khoản cấm các quốc gia khác bắt buộc trong luật của họ bất kỳ tiết lộ nào về "mã nguồn và thuật toán độc quyền". Trên thực tế, lập trường của Hoa Kỳ dường như yêu cầu tiết lộ ở trong nước trong khi cấm nó ở nước ngoài.

 

Mặc dù loại quy định liên quan đến thuật toán này đang ở giai đoạn sơ khai, nhưng có khả năng các quốc gia sẽ đi theo con đường được khắc bởi quy định dữ liệu toàn cầu đối với sự phân mảnh. Khi tầm quan trọng của các quyết định thiết kế kỹ thuật, chẳng hạn như số liệu chính xác mà AI được giao nhiệm vụ tối ưu hóa, được hiểu rộng rãi hơn, các quốc gia có thể sẽ cố gắng buộc các công ty tiết lộ chúng - nhưng cũng cố gắng cấm các công ty đó chia sẻ thông tin này với các chính phủ khác.

 

MỌI THỨ SỤP ĐỔ - THINGS FALL APART

 

Trong thời đại quyết tâm toàn cầu chùn bước trước những thách thức khác, các cường quốc ban đầu đã đưa ra một lưu ý lạc quan trong việc vật lộn với AI. Ở Bắc Kinh, Brussels và Washington, dường như có sự đồng thuận rộng rãi rằng AI có thể gây ra những tác hại nghiêm trọng tiềm tàng và hành động xuyên quốc gia phối hợp là cần thiết.

 

Tuy nhiên, các quốc gia không đi theo con đường này. Thay vì khuyến khích một nỗ lực tập thể để thiết lập một khung pháp lý rõ ràng để quản lý AI, các quốc gia đã tham gia vào các xung đột tinh tế, bóng tối về nền tảng vật chất và vô hình của AI. Trật tự pháp lý kết quả sẽ được đặc trưng bởi gãy xương và khoảng cách, không vướng víu. Nó sẽ khiến các quốc gia nghi ngờ lẫn nhau, làm giảm thiện chí. Và sẽ rất khó để thúc đẩy các đề xuất về quản trị toàn cầu tốt hơn về AI. Ít nhất, chế độ mới nổi sẽ khiến việc thu thập thông tin và đánh giá rủi ro của công nghệ mới trở nên khó khăn hơn. Nguy hiểm hơn, những trở ngại kỹ thuật do sự Balkan hóa pháp lý ngày càng tăng của quy định AI có thể khiến một số giải pháp toàn cầu, chẳng hạn như thành lập một hội đồng liên chính phủ về AI, là không thể.

 

Một trật tự pháp lý bị phân mảnh là một trật tự trong đó các mô hình AI nguy hiểm sâu sắc có thể được phát triển và phổ biến như các công cụ của xung đột địa chính trị. Những nỗ lực của một quốc gia để quản lý AI có thể dễ dàng bị phá hoại bởi những người bên ngoài biên giới của nó. Và các chế độ chuyên chế có thể được tự do thao túng công chúng của chính họ bằng cách sử dụng AI và khai thác luồng thông tin tự do của các nền dân chủ để làm suy yếu chúng từ bên trong. Do đó, có nhiều thứ để mất nếu một nỗ lực toàn cầu để điều chỉnh AI không bao giờ thực sự thành hiện thực.

 

By Aziz Huq

 

Aziz Huq là Giáo sư Luật Frank và Bernice J. Greenberg tại Đại học Chicago và là tác giả của Sự sụp đổ của các biện pháp hiến pháp (The Collapse of Constitutional Remedies.)

.

Artificial Intelligence

A WORLD DIVIDED OVER ARTIFICIAL INTELLIGENCE

By Aziz Huq

Foreign Affairs

Published on March 11, 2024.

 

Geopolitics Gets in the Way of Global Regulation of a Powerful Technology

 

 

Photo: An artificial-intelligence-powered assistant on display

in Barcelona, February 2024. Bruna Casas / Reuters.

 

In November 2023, a number of countries issued a joint communiqué promising strong international cooperation in reckoning with the challenges of artificial intelligence. Startlingly for states often at odds on regulatory matters, China, the United States, and the European Union all signed the document, which offered a sensible, wide-ranging view on how to address the risks of “frontier” AI—the most advanced species of generative models exemplified by ChatGPT. The communiqué identified the potential for the misuse of AI for “disinformation” and for the kindling of “serious, even catastrophic” risks in cybersecurity and biotechnology. The same month, U.S. and Chinese officials agreed to hold talks in the spring on cooperation over AI regulation. These talks will also focus on how to handle the risks of the new technology and ensure its safety.

 

Through multinational communiqués and bilateral talks, an international framework for regulating AI does seem to be coalescing. Take a close look at U.S. President Joe Biden’s October 2023 executive order on AI; the EU’s AI Act, which passed the European Parliament in December 2023 and will likely be finalized later this year; or China’s slate of recent regulations on the topic, and a surprising degree of convergence appears. They have much in common. These regimes broadly share the common goal of preventing AI’s misuse without restraining innovation in the process. Optimists have floated proposals for closer international management of AI, such as the ideas presented in Foreign Affairs by the geopolitical analyst Ian Bremmer and the entrepreneur Mustafa Suleyman and the plan offered by Suleyman and Eric Schmidt, the former CEO of Google, in the Financial Times in which they called for the creation of an international panel akin to the UN’s Intergovernmental Panel on Climate Change to “inform governments about the current state of AI capabilities and make evidence-based predictions about what’s coming.”

 

But these ambitious plans to forge a new global governance regime for AI may collide with an unfortunate obstacle: cold reality. The great powers, namely, China, the United States, and the EU, may insist publicly that they want to cooperate on regulating AI, but their actions point toward a future of fragmentation and competition. Divergent legal regimes are emerging that will frustrate any cooperation when it comes to access to semiconductors, the setting of technical standards, and the regulation of data and algorithms. This path doesn’t lead to a coherent, contiguous global space for uniform AI-related rules but to a divided landscape of warring regulatory blocs—a world in which the lofty idea that AI can be harnessed for the common good is dashed on the rocks of geopolitical tensions.

 

CHIPS ON THEIR SHOULDERS

 

The best-known area of conflict related to AI is the ongoing duel between China and the United States over global semiconductor markets. In October 2022, the U.S. Commerce Department issued its first comprehensive licensing regime for the export of advanced chips and chip-making technology. These chips are needed to manufacture the devices that can run the cutting-edge AI models used by OpenAI, Anthropic, and other firms on the technological frontier. The export controls apply not just to U.S. companies but to any manufacturer that uses such U.S. software or technology; in practice, Washington’s export-control regulations have a global remit. In August 2023, China countered with its own export controls on the rare minerals gallium and germanium—both necessary components for manufacturing chips. Two months later, the Biden administration toughened its earlier regulations by expanding the range of covered semiconductor products.

 

Tit-for-tat competition over semiconductors is possible because international trade law under the World Trade Organization does not sufficiently constrain governments from instituting export controls. The body has rarely addressed the issue in the past. And since former U.S. President Donald Trump neutered the WTO’s appellate body in 2018 by blocking the appointment of new members, there has been little prospect of new formal rules that can be credibly enforced by an authoritative global institution. As a result, these salvos in the chip war between China and the United States are eroding free trade and setting destabilizing precedents in international trade law. They will likely work as a complete substitute for such law in the near term, guaranteeing lower levels of trade and greater geopolitical strains.

 

But the chip war is just the most high-profile front in the gathering contest over AI’s necessary components. A second zone of conflict concerns technical standards. Such standards have long undergirded the use of any major technology: imagine trying to build a railroad across the United States if every state had a different legally mandated gauge for train tracks. The rise of the digital era has seen the proliferation of various kinds of standards to enable the production and purchase of complex products around the world. The iPhone 13, for example, has nearly 200 parts sourced from more than a dozen countries. If these disparate elements are to work together—and make an object that can communicate with cell towers, satellites, and the Internet of Things—they have to share a set of technical specifications. The choice of such standards has profound effects. It determines whether and how innovations can find commercial uses or achieve market shares. As the German industrialist Werner von Seimens said in the late 1800s, “He who owns the standards, owns the market.”

 

“The chip war between China and the United States is setting destabilizing precedents in international trade law”.

 

At present, a series of little-known bodies such as the International Telecommunication Union, the International Electrotechnical Commission, the International Organization for Standardization, and the Internet Engineering Task Force negotiate technical standards for digital technology in general. Based in Geneva and operating as nonprofits or as UN affiliates, these bodies play a major role in setting the terms of global digital trade and competition. Members of these institutions vote on standards by majority rule. To date, those forums have been dominated by U.S. and European officials and firms. But that is changing.

 

In the last two decades, China has increasingly taken on leadership roles in the technical committees of several of these bodies, where it has unstintingly promoted its preferred standards. Since 2015, it has integrated its own technical standards in the projects of its Belt and Road Initiative, a vast global infrastructure investment program. As of 2019, it had reached 89 standardization agreements with 39 countries and regions. In March 2018, China launched yet another strategy, “China Standard 2035,” calling for an even stronger Chinese role in international standard setting and demanding greater civil-military coordination within China on the choice of standards. Predictably, some industry analysts in the United States have responded by calling for Washington to combat “more proactively... Chinese influence over standard-setting bodies.”

 

This is not the first time technical standards have become ensnarled in geopolitical tensions. In August 2019, U.S. sanctions on the Chinese telecommunications giant Huawei led China to establish its own energy-efficiency standards that were incompatible with Western ones. The result was a fracturing of technical standards for managing how large data centers, which are central to the digital economy, work. In the AI context, markets separated by different technical standards would slow the diffusion of new tools. It would also make it more difficult to develop technical solutions that could be applied globally to problems such as disinformation or deepfake pornography. In effect, the problems that great powers have identified as important to jointly address would become harder to solve.

 

Divisions over AI-related technical standards have already emerged. The EU’s AI Act, for example, mandates the use of “suitable risk management measures.” To define this term, the act looks to three independent standard-setting organizations that would develop and promulgate context-specific standards regarding AI safety risks. It is telling that the three bodies specified in the legislation to date are European, not the international ones mentioned above. This seems a quite conscious effort to distinguish European regulation from its U.S. and Chinese counterparts. And it promises the Balkanization of standards pertaining to AI.

 

THEIR DARK MATERIALS

 

Geopolitical conflict is not just shaping a new international regulatory landscape for the physical commodities that make up AI. It is also sharpening divides over the intangible assets needed for the technology. Again, the emerging legal regime entrenches a divided world order in which broad-based, collective solutions are likely to fail.

 

The first important intangible input of AI is data. AI tools such as ChatGPT are built on massive pools of data. To succeed, however, they also need more targeted batches of data. Generative AI tools, which are able to produce paragraphs of text or extended video based on brief prompts, are incredibly powerful. But they are often unsuited to highly specific tasks. They must be fine-tuned with smaller, context-specific data sets to do a particular job. A firm using a generative AI tool for its customer-service bot, for example, might train such an instrument on its own transcripts of consumer interactions. AI, in short, needs both large reservoirs of data and smaller, more bespoke data pools.

 

Companies and countries will therefore invariably compete over access to different kinds of data. International conflict over data flows is not new: the United States and the EU repeatedly clashed over the terms under which data can cross the Atlantic after the EU’s Court of Justice struck down, in 2015, a safe harbor agreement that had allowed companies to move data between servers in the United States and Europe. But the scale of such disagreements is on the rise now, shaping how data will flow and making it harder for data to cross national borders.

 

“The emerging legal regime regarding AI will frustrate broad-based, collective solutions”.

 

Until recently, the United States promoted a model of free global data transfers out of a commitment to open markets and as a national security imperative—a more integrated world, officials believed, would be a safer one. Washington was aggressive in its use of bilateral trade deals to promote this vision. In contrast, European law has long reflected greater caution about data privacy. For their part, China and India have enacted domestic legislation that mandates, in different ways, “data localization,” with greater restrictions on the flow of data across borders.

 

Since AI swept to center stage, these views have shuffled. India recently relaxed its prohibition, suggesting that it will allow greater data flows to other countries—thus giving it greater sway over the terms of global digital trade. China also seems to be easing its localization rules as its economy sputters, allowing more companies to store data outside China’s borders. But startlingly, the United States is moving in the opposite direction. U.S. politicians who were worried about the social media app TikTok’s relationship with the Chinese government pressured the company to commit to limiting data flows to China. (TikTok, by its own admission, has honored this commitment somewhat inconsistently.) In October 2023, the U.S. trade representative announced that the federal government was dropping the country’s long-standing demands at the WTO for the protection of cross-border data flows and prohibitions on the forced localization of data. If Washington maintains this path, the world will have lost its principal advocate of free data flows. More data localization would likely ensue.

 

Finally, global competition is starting to emerge over whether and when states can demand the disclosure of the algorithms that underlie AI instruments. The EU’s proposed AI Act, for instance, requires large firms to provide government agencies access to the inner workings of certain models to ensure that they are not potentially damaging to individuals. Similarly, recent Chinese regulations regarding AI used to create content (including generative AI) requires firms to register with authorities and limits the uses of their technology. The U.S. approach is more complex—and not entirely coherent. On the one hand, Biden’s executive order in October 2023 demands a catalog of disclosures about “dual-use foundation models”—cutting-edge models that can have both commercial and security-related uses. On the other hand, trade deals pursued by the Trump and Biden administrations have included many provisions prohibiting other countries from mandating in their laws any disclosure of “propriety source code and algorithms.” In effect, the U.S. position seems to demand disclosure at home while forbidding it overseas.

 

Even though this kind of regulation regarding algorithms is in its infancy, it is likely that countries will follow the path carved by global data regulation toward fragmentation. As the importance of technical design decisions, such as the precise metric an AI is tasked with optimizing, becomes more widely understood, states are likely to try to force firms to disclose them—but also to try to prohibit those firms from sharing this information with other governments.

 

THINGS FALL APART

 

In an era of faltering global resolve on other challenges, great powers had initially struck an optimistic note in grappling with AI. In Beijing, Brussels, and Washington, there seemed to be broad agreement that AI can cause potentially grave harms and that concerted transnational action was needed.

 

Countries are not, however, taking this path. Rather than encouraging a collective effort to establish a clear legal framework to manage AI, states are already engaged in subtle, shadowy conflicts over AI’s material and intangible foundations. The resulting legal order will be characterized by fracture and distance, not entanglement. It will leave countries suspicious of one another, sapping goodwill. And it will be hard to advance proposals for better global governance of AI. At a minimum, the emerging regime will make it more difficult to gather information and assess the risks of the new technology. More dangerously, the technical obstacles raised by the growing legal Balkanization of AI regulation may make certain global solutions, such as the establishment of an intergovernmental panel on AI, impossible.

 

A fragmented legal order is one in which deeply dangerous AI models can be developed and disseminated as instruments of geopolitical conflict. A country’s efforts to manage AI could easily be undermined by those outside its borders. And autocracies may be free to both manipulate their own publics using AI and exploit democracies’ free flow of information to weaken them from within. There is much to be lost, then, if a global effort to regulate AI never truly materializes.

 

By Aziz Huq

 

Aziz Huq is Frank and Bernice J. Greenberg Professor of Law at the University of Chicago and the author of The Collapse of Constitutional Remedies.

 

*  *  *

 

Xem bài liên hệ với đề tài nầy: click vào đây

Xem bài trang Kiến thức, tài liệu: click vào đây

Xem các bài trên trang Anh ngữ: click vào đây

Trở về trang chính: http://www.nuiansongtra.net

 


Nếu độc giả, đồng hương, thân hữu muốn: 

* Liên-lạc với Ban Điều Hành hay webmaster 
* Gởi các sáng tác, tài liệu, hình-ảnh... để đăng 
* Cần bản copy tài liệu, hình, bài...trên trang web:

Xin gởi email về: quangngai@nuiansongtra.net 
hay: nuiansongtra1941@gmail.com

*  *  *

Copyright by authors & Website Nui An Song Tra - 2006


Created by Hiep Nguyen
log in | ghi danh