Đề tài liên hệ:
TRÍ TUỆ NHÂN TẠO SẼ TÁC ĐỘNG ĐẾN SỰ RĂN ĐE NHƯ THẾ NÀO
15 RỦI RO LỚN NHẤT CỦA TRÍ TUỆ NHÂN TẠO
TRÍ TUỆ NHÂN TẠO ĐANG ĐỊNH NGHĨA LẠI CHIẾN TRANH TRUNG ĐÔNG NHƯ THẾ NÀO?
TRÍ TUỆ NHÂN TẠO ĐÃ TÌM RA CÁCH ĐÁNH LỪA CON NGƯỜI
MỘT THẾ GIỚI BỊ CHIA RẼ VÌ TRÍ TUỆ NHÂN TẠO
TÍCH HỢP TRÍ TUỆ NHÂN TẠO: KẾT HỢP SỨ MỆNH, HỆ THỐNG VÀ DỮ LIỆU
Technology
(ROBOTS, DRONES, AND AI, OH MY: NAVIGATING THE NEW FRONTIER OF MILITARY MEDICINE)
Story by Joshua Steier
RAND
Published January 8-2024.
Commentary.
This commentary originally appeared on The Hill on January 7, 2024.
Hệ thống phẫu thuật da Vinci tại Trung tâm Y tế Quân sự
Mike O'Callaghan, Căn cứ Không quân Nellis, Nevada, ngày 3/4/2019.
Ảnh chụp bởi A1C Bailee Darbasie/ Không quân Hoa Kỳ.
Trong bối cảnh phát triển nhanh chóng của y học quân sự, việc tích hợp phi cơ không người lái tự động và công nghệ robot đánh dấu một bước ngoặt, báo trước một kỷ nguyên biến đổi trong chăm sóc chiến trường.
Sự thay đổi này, được minh chứng bằng sự phát triển của phi cơ không người lái (UAV) tân tiến như DP-14 Hawk, cùng với việc sử dụng phẫu thuật robot ngày càng tăng trên chiến trường (robotic surgery on the battlefield), mang lại hứa hẹn về những tiến bộ vô song trong phản ứng y tế. Tuy nhiên, việc nhận ra một cách có trách nhiệm tiềm năng đầy đủ của các công nghệ này không chỉ đòi hỏi cam kết đổi mới công nghệ mà còn là cách tiến tới (approach) thận trọng để giải quyết các thách thức đạo đức và các mối đe dọa an ninh mạng, cũng như duy trì yếu tố con người không thể thiếu trong việc ra quyết định y tế.
Từ lần đầu tiên sử dụng khinh khí cầu không người lái trong chiến tranh vào năm 1849 (first use of uncrewed balloons in warfare in 1849) đến các ứng dụng đương đại của UAV trong các lĩnh vực đa dạng như canh tác chính xác, giám sát môi trường và giám sát dịch tễ học, hành trình của công nghệ phi cơ không người lái đã được đánh dấu bằng sự đổi mới và thích ứng liên tục. Trong y học quân sự, việc Quân đội Hoa Kỳ khám phá phi cơ không người lái cho các vai trò ngoài các đội phản ứng mặt đất truyền thống phản ảnh sự công nhận tiềm năng chưa được khai thác của chúng. Những hệ thống tân tiến này, có khả năng vận chuyển vật dụng y tế nhanh chóng và đáng tin cậy cũng như thực hiện các đánh giá y tế từ xa, đang định hình lại cách thức viện trợ y tế được cung cấp đến và trong các khu vực xung đột.
Việc đưa công nghệ robot vào y học quân sự làm tăng thêm một lớp phức tạp và cơ hội khác. Robot, ngày càng được sử dụng trong các quy trình phẫu thuật vì độ chính xác và độ tin cậy của chúng, mang đến những khả năng mới cho việc chăm sóc y tế trong môi trường mà các ca phẫu thuật truyền thống do con người vận hành có thể không thực tế hoặc nguy hiểm.
Một ví dụ về một môi trường như vậy là các khu vực chiến đấu từ xa (remote combat zones). Ở đây, các hệ thống phẫu thuật robot, chẳng hạn như các hệ thống được mở mang với sự tài trợ từ DARPA, có thể đủ nhỏ gọn để di chuyển cùng quân đội vào các khu vực này ở phía sau xe bọc thép. Công nghệ này cho phép các bác sĩ thực hiện phẫu thuật trên chiến trường mà không gây nguy hiểm cho bản thân, giải quyết nhu cầu quan trọng về can thiệp y tế ngay lập tức trong điều kiện thù địch và bị cô lập.
Tuy nhiên, việc khai triển các hệ thống tự trị này trong các hoạt động quân sự không phải là không có thách thức. Nguy cơ tự động hóa và thiên vị (bias) thuật toán (algorithmic), nơi có xu hướng phụ thuộc quá nhiều vào các hệ thống tự động với chi phí phán đoán của con người, là một mối quan tâm đáng kể.
Thiên vị thuật toán trong bối cảnh này đề cập đến những hạn chế và lỗi tiềm ẩn trong việc lập trình các hệ thống tự động có thể dẫn đến các quyết định hoặc hành động ngoài ý muốn. Nó xảy ra khi các hệ thống này, dựa trên thuật toán của chúng, đưa ra quyết định có thể không tính toán đầy đủ cho tất cả các biến hoặc kịch bản trong các tình huống trong thế giới thực. Biến cố bi thảm (tragic incident) liên quan đến hệ thống hỏa tiễn Patriot năm 2003 trong cuộc xâm lược Iraq do Mỹ dẫn đầu đã làm nổi bật nguy cơ này. Hệ thống, hoạt động tự động, đã xác định nhầm một máy bay chiến đấu Tornado của Anh là hỏa tiễn của kẻ thù, dẫn đến cái chết của hai thành viên phi hành đoàn do hỏa lực thân thiện (friendly fire).
Sự thiên vị này - nghĩa là xu hướng phụ thuộc quá nhiều vào việc ra quyết định được lập trình của các hệ thống tự trị (autonomous) - có thể đặc biệt có vấn đề trong những môi trường như vậy, nơi hậu quả của lỗi được phóng đại. Trong khi chiến lược quân sự hiện tại chủ yếu sử dụng các hệ thống tự trị để bổ sung và tăng cường khả năng (complement and enhance) của con người, đặc biệt là trong các nhiệm vụ mà sự hiện diện của con người là rủi ro hoặc không hiệu quả, điều quan trọng là phải duy trì sự giám sát thận trọng của con người. Cách tiến tới này bảo đảm rằng các hệ thống tự động đóng vai trò như một hệ số nhân lực chứ không phải là sự thay thế cho việc ra quyết định của con người trong các hoạt động quân sự phức tạp.
Hơn nữa, việc sử dụng phi cơ không người lái và hệ thống robot trong di tản và điều trị cho những người lính bị thương thể hiện cả lợi thế chiến lược và rủi ro tiềm ẩn. Khả năng của các hệ thống này nhằm giảm thiểu rủi ro liên quan đến việc gửi các tài sản y tế có người lái vào các khu vực chiến đấu và khả năng hoạt động lâu dài của chúng mang lại lợi ích rõ ràng. Tuy nhiên, những thách thức như mối đe dọa của các cuộc tấn công mạng, AI đối địch, tình trạng quá tải không phận tiềm ẩn và khả năng chống lại việc thay thế nhân viên y tế bằng máy móc phải được điều hướng cẩn thận.
Sự tích hợp chiến lược của phi cơ không người lái và công nghệ robot trong các hoạt động y tế của Quân đội Hoa Kỳ báo hiệu một sự thay đổi mô hình trong cách hỗ trợ y tế được thực hiện trên chiến trường. Mặc dù công nghệ này cung cấp độ tin cậy, tính nhất quán (consistency) và giảm lỗi của con người, nhưng nó cũng đặt ra những thách thức mới về đạo đức và bảo mật phải được giải quyết.
Tương lai của y học quân sự nằm ở việc khai thác những tiến bộ công nghệ này trong khi vẫn duy trì tính toàn vẹn đạo đức và sự tiếp xúc của con người cần thiết cho chăm sóc y tế. Khi chúng ta điều hướng biên giới mới này, một cách tiếp cận cân bằng bao trùm sự đổi mới và đề cao trách nhiệm của chúng ta đối với an ninh, đạo đức và nhân loại là rất quan trọng.
Viết bởi Joshua Steier.
Josh Steier là một nhà phân tích kỹ thuật tại RAND Corporation với niềm đam mê khai thác học máy (machine learning, ML) để giải quyết các thách thức toàn cầu trên nhiều lĩnh vực khác nhau. Sở thích của ông bao gồm Học máy, An ninh mạng, Trí tuệ nhân tạo, Công nghệ sinh học, Tin học y sinh, Lý thuyết trò chơi, Mô hình hóa và mô phỏng, và Nghiên cứu hoạt động.
Năm 2021, anh lấy bằng Thạc sĩ Toán ứng dụng tại Đại học Stony Brook với trọng tâm là Sinh học tính toán và hệ thống. Trong thời gian ở đó, ông cũng dạy một khóa học về Sinh học Toán học. Tại RAND, Steier đóng góp vào việc ra quyết định sáng suốt bằng cách đi tiên phong trong các kỹ thuật sáng tạo để tăng cường sự mạnh mẽ của hệ thống, dự đoán vị trí cơ sở hạ tầng xanh và dự đoán kết quả bệnh truyền nhiễm. Ông chủ yếu làm việc trong các dự án tại giao điểm của học máy, an ninh mạng, khoa học khí hậu và chăm sóc sức khỏe.
Steier có nền tảng vững chắc về phân tích, mô hình hóa và mô phỏng dữ liệu, được nhấn mạnh bởi nhiều ấn phẩm và chứng nhận trong các lĩnh vực này. Ông cam kết sâu sắc trong việc thúc đẩy các biên giới của ML, an toàn AI và cố vấn cho thế hệ chuyên gia tiếp theo trong lĩnh vực này.
Anh ấy nói tiếng Đức, tiếng Nga và tiếng Ý.
.
ROBOTS, DRONES, AND AI, OH MY: NAVIGATING THE NEW FRONTIER OF MILITARY MEDICINE
Story by Joshua Steier
RAND
Published January 8-2024.
Commentary.
This commentary originally appeared on The Hill on January 7, 2024.
The da Vinci Surgery System at the Mike O'Callaghan Military
Medical Center, Nellis Air Force Base, Nevada, April 3, 2019.
Photo by A1C Bailee Darbasie/U.S. Air Force
In the rapidly evolving landscape of military medicine, the integration of autonomous drones and robotic technology marks a turning point, heralding a transformative era in battlefield care.
This shift, exemplified by the development of advanced unmanned aerial vehicles (UAVs) like the DP-14 Hawk, alongside the increasing use of robotic surgery on the battlefield, brings the promise of unparalleled advancements in medical response. However, responsibly realizing the full potential of these technologies demands not only a commitment to technological innovation but a vigilant approach to addressing ethical challenges and cybersecurity threats, as well as maintaining the indispensable human element in medical decisionmaking.
From the first use of uncrewed balloons in warfare in 1849 to the contemporary applications of UAVs in diverse fields like precision farming, environmental monitoring, and epidemiological surveillance, the journey of drone technology has been marked by continuous innovation and adaptation. In military medicine, the U.S. Army's exploration of drones for roles beyond traditional ground response teams reflects a recognition of their untapped potential. These advanced systems, capable of the rapid and reliable transportation of medical supplies as well as performing remote medical assessments, are reshaping the way medical aid is delivered to and within conflict zones.
The introduction of robotic technology into military medicine adds another layer of complexity and opportunity. Robots, increasingly utilized in surgical procedures for their precision and reliability, present new possibilities for medical care in environments where traditional human-operated surgeries might be impractical or hazardous.
An example of such an environment is remote combat zones. Here, robotic surgery systems, such as those developed with funding from DARPA, could be compact enough to travel with troops into these zones in the back of an armored vehicle. This technology allows doctors to perform surgery on the battlefield without endangering themselves, addressing the critical need for immediate medical intervention in hostile and isolated conditions.
However, the deployment of these autonomous systems in military operations is not without challenges. The risk of automation and algorithmic bias, where there's a tendency to over-rely on automated systems at the expense of human judgment, is a significant concern.
Algorithmic bias in this context refers to the limitations and potential errors in the programming of automated systems that can lead to unintended decisions or actions. It occurs when these systems, based on their algorithms, make decisions that might not adequately account for all variables or scenarios in real-world situations. The tragic incident involving the Patriot missile system in 2003 during the U.S.-led invasion of Iraq highlights this risk. The system, operating autonomously, misidentified a UK Tornado fighter jet as an enemy missile, resulting in the deaths of two crew members due to friendly fire.
This bias—that is, the tendency to depend too much on the programmed decisionmaking of autonomous systems—can be particularly problematic in such environments, where the consequences of errors are magnified. While current military strategy primarily uses autonomous systems to complement and enhance human capabilities, especially in tasks where human presence is risky or inefficient, it is crucial to maintain vigilant human oversight. This approach ensures that automated systems serve as a force multiplier rather than a substitute for human decisionmaking in complex military operations.
Furthermore, the use of drones and robotic systems in evacuating and treating injured soldiers presents both strategic advantages and potential risks. These systems' ability to reduce the risk associated with sending manned medical assets into combat zones, and their capacity for long-duration operations, offer clear benefits. However, challenges such as the threat of cyberattacks, adversarial AI, potential airspace overcrowding, and resistance to replacing human medics with machines must be carefully navigated.
The strategic integration of drones and robotic technology in U.S. Army medical operations signals a paradigm shift in how medical assistance is rendered on the battlefield. While this technology offers reliability, consistency and a reduction of human error, it also poses new ethical and security challenges that must be addressed.
The future of military medicine lies in harnessing these technological advancements while maintaining the ethical integrity and human touch essential to medical care. As we navigate this new frontier, a balanced approach that embraces innovation and upholds our responsibilities to security, ethics, and humanity is crucial.
Written by Joshua Steier
Josh Steier is a technical analyst at the RAND Corporation with a passion for harnessing machine learning (ML) to address global challenges across various domains. His interests encompass Machine Learning, Cybersecurity, Artificial Intelligence, Biotechnology, Biomedical Informatics, Game Theory, Modeling and Simulation, and Operations Research.
In 2021, he earned an M.S degree in Applied Mathematics from Stony Brook University with a focus on Computational and Systems Biology. During his time there, he also taught a course on Mathematical Biology. At RAND, Steier contributes to informed decision-making by pioneering innovative techniques for enhancing system robustness, predicting green infrastructure placement, and projecting infectious disease outcomes. He primarily works on projects at the intersection of machine learning, cybersecurity, climate science, and healthcare.
Steier has a strong background in data analysis, modeling, and simulation, underlined by multiple publications and certifications in these areas. He is deeply committed to advancing the frontiers of ML, AI safety, and mentoring the next generation of professionals in the field.
He speaks German, Russian and Italian and enjoys pursuits like reading, hiking, running, and weight lifting.
* * *
Xem bài liên hệ với đề tài nầy: click vào đây
Xem bài trang Kiến thức, tài liệu: click vào đây
Xem các bài trên trang Anh ngữ: click vào đây
Trở về trang chính: http://www.nuiansongtra.net