สล็อตแมชชีน SLOT999 ออนไลน์ :ผู้เชี่ยวชาญด้านปัญญาประดิษฐ์ลงนามในจดหมายเปิดผนึกเพื่อปกป้องมนุษยชาติจากเครื่องจักร



  • 2019-06-22
  • แหล่ง:สล็อตแมชชีน SLOT999 ออนไลน์

เทียม intellgience-getty.jpg
"ชาร์ลี" เป็นระบบหุ่นยนต์คล้ายลิงที่เดินผ่านสี่ขาแสดงที่นี่ในเดือนมีนาคม 2014 ที่ฮันโนเวอร์ประเทศเยอรมนี หุ่นยนต์สามารถใช้งานได้ในสภาพภูมิประเทศที่ขรุขระบนดวงจันทร์หรืออาจเป็นหินก้าวสู่การทำลายของมนุษยชาติ เก็ตตี้อิมเมจ

เราห่างไกลจากความสามารถในการพัฒนาซูเปอร์คอมพิวเตอร์ที่ต่อต้านสังคมซึ่งเป็นทาสของมนุษยชาติ แต่ผู้เชี่ยวชาญด้านปัญญาประดิษฐ์กำลังทำงานเพื่อขจัดสิ่งที่เลวร้ายที่สุดเมื่อไม่ใช่เครื่องจักรฉลาดกว่าคน

ผู้เชี่ยวชาญด้าน AI ทั่วโลกกำลัง ออกโดยสถาบันอนาคตแห่งชีวิตที่ให้คำมั่นที่จะประสานความคืบหน้าอย่างปลอดภัยและรอบคอบเพื่อให้แน่ใจว่ามันจะไม่เติบโตเกินกว่าการควบคุมของมนุษยชาติ ผู้ลงนามรวมถึงผู้ร่วมก่อตั้ง บริษัท Deep Mind ซึ่งเป็น บริษัท AI ของอังกฤษที่ซื้อโดย Google ในเดือนมกราคม 2014 อาจารย์ของ MIT; และผู้เชี่ยวชาญในองค์กรที่ใหญ่ที่สุดของเทคโนโลยีรวมถึงทีมซุปเปอร์คอมพิวเตอร์ของ Watson และ Microsoft Research

"ผลประโยชน์ที่อาจเกิดขึ้นมีขนาดใหญ่เนื่องจากทุกสิ่งที่อารยธรรมมีให้คือผลิตภัณฑ์ของความฉลาดของมนุษย์ .... เราขอแนะนำการวิจัยเพิ่มเติมเพื่อให้มั่นใจว่าระบบ AI ที่มีความสามารถมากขึ้นนั้นแข็งแกร่งและเป็นประโยชน์: ระบบ AI ของเราต้องทำสิ่งที่เราต้องการ ในการทำ "จดหมายกล่าวในบางส่วน เอกสารการวิจัยที่แนบมากับจดหมายเปิดผนึกแสดงถึงข้อผิดพลาดที่อาจเกิดขึ้นและแนะนำแนวทางสำหรับการพัฒนา AI อย่างต่อเนื่อง

จดหมายมาหลังจากผู้เชี่ยวชาญได้ออกคำเตือนเกี่ยวกับอันตรายของเครื่องจักรที่ชาญฉลาด ยกตัวอย่างเช่นนักจริยศาสตร์กังวลว่ารถยนต์ที่ขับขี่ด้วยตนเองอาจชั่งน้ำหนักชีวิตของนักปั่นจักรยานกับผู้โดยสารได้อย่างไรเมื่อมันเลี้ยวโค้งเพื่อหลีกเลี่ยงการชน สองปีที่ผ่านมาตัวแทนของสหประชาชาติ ในการทดสอบการผลิตและการใช้อาวุธที่เรียกว่าอิสระที่สามารถเลือกเป้าหมายและเริ่มการโจมตีโดยปราศจากการแทรกแซงของมนุษย์

นักฟิสิกส์ที่มีชื่อเสียงสตีเฟ่นฮอว์คิงและซีอีโอของเทสลามอเตอร์ Elon Musk ได้แสดงความกังวลเกี่ยวกับการอนุญาตให้ใช้ปัญญาประดิษฐ์ในการวิ่งอาละวาด “ ใคร ๆ ก็นึกภาพออกว่าเทคโนโลยีดังกล่าวทำลายตลาดการเงินนักวิจัยมนุษย์คิดค้นผู้นำมนุษย์และจัดการอาวุธที่เราไม่สามารถเข้าใจได้” Hawking กล่าวในบทความที่เขาเขียนร่วมในเดือนพฤษภาคมเพื่อ "ในขณะที่ผลกระทบระยะสั้นของ AI ขึ้นอยู่กับว่าใครควบคุมมันผลกระทบระยะยาวนั้นขึ้นอยู่กับว่าจะสามารถควบคุมได้หรือไม่"

ทวีต Musk ในเดือนสิงหาคมทวีตว่า "เราต้องระมัดระวังอย่างยิ่งกับ AI อาจมีอันตรายมากกว่านิวเคลียร์"

“ ฉันมีแนวโน้มมากขึ้นที่จะคิดว่าควรมีการกำกับดูแลในระดับชาติและระดับนานาชาติเพื่อให้แน่ใจว่าเราจะไม่ทำสิ่งที่โง่มาก” เขา ในเดือนตุลาคม .

The Future of Life Institute เป็นองค์กรวิจัยที่เป็นอาสาสมัครเท่านั้นโดยมีเป้าหมายหลักคือการลดความเสี่ยงที่อาจเกิดขึ้นจากความฉลาดของมนุษย์ที่มนุษย์สร้างขึ้นในระดับที่สามารถพัฒนาไปอย่างทวีคูณในไม่ช้า มันก่อตั้งขึ้นโดยคะแนนของนักคณิตศาสตร์และผู้เชี่ยวชาญด้านวิทยาศาสตร์คอมพิวเตอร์ทั่วโลกส่วนใหญ่ Jaan ทาลลินน์ผู้ร่วมก่อตั้งของ Skype และศาสตราจารย์ Max Tegmark MIT

แผนระยะยาวคือการหยุดการรักษา dystopias สมมติเป็นจินตนาการที่บริสุทธิ์และพร้อมที่จะรับมือกับความเป็นไปได้ที่หน่วยสืบราชการลับที่ยิ่งใหญ่กว่าของเราในวันหนึ่งอาจเริ่มทำหน้าที่ต่อต้านการเขียนโปรแกรม

แบ่งปันเสียงของคุณ

แท็ก




    • การจัดอันดับความบันเทิง
    • บทความล่าสุด
    • บทความแบบสุ่ม