Anthropic ปัดข้อเสนอใหม่เพนตากอน ปม AI ทหาร

Anthropic ปัดข้อเสนอใหม่เพนตากอน

ในโลกของปัญญาประดิษฐ์ที่กำลังพัฒนาอย่างรวดเร็ว Anthropic ปัดข้อเสนอใหม่เพนตากอน กลายเป็นประเด็นร้อนที่สะท้อนความขัดแย้งระหว่างจริยธรรม AI กับความต้องการทางทหาร ล่าสุดสตาร์ตอัป AI ชั้นนำจากอเมริกาปฏิเสธข้อเสนอฉบับปรับปรุงจากกระทรวงกลาโหมสหรัฐฯ (Pentagon) ซึ่งต้องการให้ถอนข้อจำกัดการใช้เทคโนโลยี AI ในภารกิจทหารออกไป

Anthropic ปัดข้อเสนอใหม่เพนตากอน: สาเหตุหลักจากข้อจำกัดจริยธรรม

เหตุผลหลักที่ Anthropic ยืนกรานไม่ยอมถอยคือการปกป้องสองหลักการสำคัญ นั่นคือ ห้ามนำ AI ไปใช้สอดแนมพลเมืองชาวอเมริกัน และ ห้ามใช้ในระบบโจมตีสังหารอัตโนมัติที่ไร้การควบคุมจากมนุษย์ โฆษกของบริษัทออกแถลงการณ์เมื่อวันพฤหัสบดีที่ 26 กุมภาพันธ์ ระบุว่าข้อเสนอใหม่จาก Pentagon ยังคงมีช่องโหว่ทางกฎหมายที่อาจละเมิดสองเงื่อนไขนี้ แม้จะถูกมองว่าเป็นการประนีประนอมแล้วก็ตาม

เครื่องมือ AI อย่าง Claude ของ Anthropic เป็นหนึ่งในไม่กี่โมเดลที่ได้รับอนุมัติให้ทำงานกับข้อมูลลับของกระทรวงกลาโหม ทำให้กรณีนี้มีความสำคัญสูง Claude Gov ได้รับความนิยมในหมู่นักวิจัยและบุคลากรทหาร แต่ Anthropic ต้องการกรอบการใช้งานที่ชัดเจนเพื่อป้องกันการนำไปใช้ผิดวัตถุประสงค์

ข้อจำกัด 2 ประการที่ Anthropic ย้ำชัด

  • ห้ามสอดแนมพลเมืองสหรัฐฯ: ป้องกันการละเมิดสิทธิส่วนบุคคล โดยเฉพาะในยุคที่ AI สามารถวิเคราะห์ข้อมูลมหาศาลได้อย่างรวดเร็ว
  • ห้ามอาวุธสังหารอัตโนมัติ: หลีกเลี่ยง "killer robots" ที่ตัดสินใจฆ่าโดยไม่มีมนุษย์เข้าแทรกแซง ซึ่งอาจนำไปสู่หายนะทางจริยธรรม

ดาริโอ อาโมเดอี CEO ของ Anthropic กล่าวอย่างหนักแน่นว่า "คำขู่เหล่านี้ไม่ทำให้เราล้มเลิกจุดยืน ด้วยหลักมโนธรรม เราไม่สามารถทำตามคำขอของพวกเขาได้" บริษัทพร้อมร่วมมือกับกองทัพ แต่ยืนยันว่าเงื่อนไขเหล่านี้ไม่ใช่การแทรกแซงนโยบายทหาร หากแต่เป็นการป้องกันความเสี่ยงจากเทคโนโลยี AI ที่ยังไม่สมบูรณ์แบบ

การตอบโต้ดุเดือดจากเพนตากอน

ฝั่งกระทรวงกลาโหมไม่ยอมง่าย ๆ โดยตั้งเส้นตายให้ Anthropic ตัดสินใจภายใน 17:01 น. ตามเวลาตะวันออกสหรัฐฯ ของวันที่ 27 กุมภาพันธ์ หากไม่ถอนข้อจำกัด บริษัทจะถูกจัดเป็น "ความเสี่ยงด้านห่วงโซ่อุปทาน" ทำให้ไม่สามารถทำสัญญากับคู่ค้าของรัฐได้ นอกจากนี้ยังขู่ว่าจะใช้อำนาจตามกฎหมาย Defense Production Act (DPA) เพื่อบังคับเข้าถึงซอฟต์แวร์โดยไม่ต้องขออนุญาต

ฌอน พาร์เนลล์ โฆษกกระทรวงกลาโหมย้ำว่า การใช้ AI จะอยู่ภายใต้กรอบกฎหมาย และไม่มีแผนสอดแนมมวลชนหรือพัฒนาอาวุธอัตโนมัติ แต่ยืนกรานว่า "จะไม่ยอมให้บริษัทเอกชนมากำหนดเงื่อนไขการตัดสินใจเชิงปฏิบัติการของกองทัพ"

บริบทยุทธศาสตร์ AI-first ของสหรัฐฯ

กรณี Anthropic ปัดข้อเสนอใหม่เพนตากอน เกิดขึ้นไม่กี่สัปดาห์หลังเพนตากอนประกาศยุทธศาสตร์ "AI-first" เพื่อเร่งทดลองโมเดล AI ขั้นสูง ลดอุปสรรคทางราชการ และเลือกใช้โมเดลที่ไม่มีข้อจำกัดนโยบายที่ขัดขวางการใช้งานทางทหารที่ถูกกฎหมาย สหรัฐฯ กำลังแข่งขันกับจีนในสงคราม AI ทำให้เพนตากอนต้องการความยืดหยุ่นสูงสุด

Anthropic ซึ่งมีมูลค่ากว่า 3.8 แสนล้านดอลลาร์ เป็นบริษัทแรกที่ได้รับอนุมัติจัดการข้อมูลลับ แต่ตอนนี้เผชิญคู่แข่งอย่าง xAI ของอีลอน มัสก์ที่เพิ่งได้สิทธิ์เดียวกัน รวมถึง OpenAI และ Google Gemini ที่อาจยอมรับเงื่อนไขเพนตากอนง่ายกว่า

ผลกระทบและมุมมองอนาคต

ความขัดแย้งนี้อาจนำไปสู่การแบ่งขั้วในอุตสาหกรรม AI ระหว่างบริษัทที่เน้น safety อย่าง Anthropic กับผู้ที่ยอมตามรัฐเพื่อผลประโยชน์เชิงพาณิชย์ ในระยะยาว อาจเร่งให้เกิดกฎระเบียบ AI ระดับชาติที่ชัดเจนยิ่งขึ้น เพื่อสมดุลระหว่างนวัตกรรม ความมั่นคง และจริยธรรม

กรณีนี้ยังชี้ให้เห็นว่า AI ไม่ใช่แค่เครื่องมือ แต่เป็นพลังที่ต้องควบคุมอย่างระมัดระวัง โดยเฉพาะในภาคทหารที่อาจเปลี่ยนโฉมหน้าการรบไปตลอดกาล

ความเห็นของเรา: Anthropic กำลังตั้งมาตรฐานใหม่ให้วงการ AI ที่เน้นมนุษยธรรม ท่ามกลางแรงกดดันจากรัฐ หากคุณสนใจประเด็นนี้ ลองแสดงความเห็นในคอมเมนต์ หรือติดตามบล็อกเพื่อข่าว AI ล่าสุด!

ที่มา – Anthropic ปัดข้อเสนอใหม่เพนตากอน ปมข้อจำกัดใช้ AI ในทางทหาร ย้ำต้องไม่ใช้สอดแนม-ฆ่าคน

ใส่ความเห็น

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *