Eliezer Shlomo Yudkovsky เป็นผู้เชี่ยวชาญด้านปัญญาประดิษฐ์ชาวอเมริกันผู้ศึกษาปัญหาของภาวะเอกฐานทางเทคโนโลยีและสนับสนุนการสร้าง AI ที่เป็นมิตร เขาเป็นนักเขียนของนิยายวิทยาศาสตร์หลายเรื่องที่เขาแสดงให้เห็นถึงบางหัวข้อที่เกี่ยวข้องกับความรู้ความเข้าใจวิทยาศาสตร์และเหตุผล
Eliezer Yudkowski: ชีวประวัติ
Eliezer Shlomo Yudkovsky เป็นหนึ่งในนักเหตุผลนิยมที่ใช้งานมากที่สุดในอเมริกาสมัยใหม่นักวิจัยคอมพิวเตอร์และเป็นที่นิยมของแนวคิด "ปัญญาประดิษฐ์ที่เป็นมิตร"
เกิด 11 กันยายน 2522 ผู้ร่วมก่อตั้งและนักวิจัยของสถาบันวิจัยที่ไม่ใช่ภาครัฐเพื่อการวิจัยเกี่ยวกับ Machine Intelligence ซึ่งตีพิมพ์หนังสือของเขา Eliezer Yudkovsky เป็นผู้แต่งนวนิยายเรื่องปรัชญา Harry Potter และวิธีการของ Rationalism ตีพิมพ์ในบางส่วนทางอินเทอร์เน็ตระหว่างปี 2010 ถึงปี 2015 ในนั้นแฮร์รี่เติบโตขึ้นในครอบครัวของนักวิทยาศาสตร์อ๊อกซฟอร์ดและก่อนที่จะเดินทางไปฮอกวอตส์เรียนรู้วิธีการคิดแบบมีเหตุผลจากเขา
เท่าที่เป็นที่รู้จักก็ไม่ได้มีการเชื่อมต่อกับวงกลมของ "นักเก็งกำไร" ชื่อของเขาถูกกล่าวถึงบ่อยครั้งในเรื่องที่เกี่ยวข้องกับ Robin Hanson เป็นเวลาหลายปี (ตั้งแต่ปี 2549 ถึง 2552) พวกเขาเป็นผู้เขียนหลักสองคนของบล็อก "Overcoming the Prejudice" ซึ่งมีอยู่ในเงินของสถาบันเพื่อมนุษยชาติในอนาคต
บางครั้งสามารถได้ยินชื่อของ Yudkovsky ซึ่งเกี่ยวข้องกับ Raymond Kurzweil เขาเป็นตัวแทนปรัชญาในชุมชนของเทคโน - geeks, ไม่สามารถเข้าถึงและเข้าใจยากดังนั้นเพื่อประชาชนส่วนใหญ่ของประชาชนด้านมนุษยธรรมซึ่งผู้อ่านเกือบทั้งหมดของความจริงเก็งกำไรอยู่ มันไม่น่าแปลกใจเพราะเขามักจะหันไปใช้ภาษาตรรกะและคณิตศาสตร์ข้อสรุปน่าจะเป็นและสถิติเปิดเผยโดยใช้สูตรและตาราง
ความสนใจทางวิทยาศาสตร์
Yudkovsky เป็นผู้ร่วมก่อตั้งและนักวิจัยที่สถาบันเอกเทศสำหรับสถาบันปัญญาประดิษฐ์ (SIAI) เขามีส่วนช่วยอย่างมากในการพัฒนาสถาบัน เขาเป็นนักเขียนหนังสือ "การสร้าง AI ที่เป็นมิตร" (2001), บทความ "ระดับขององค์กรในหน่วยสืบราชการลับทั่วไป" (2002), "การประเมินร่วมกันประเมินร่วมกัน" ("การคาดการณ์การเชื่อมโยงที่สอดคล้องกัน", 2004) และทฤษฎีการตัดสินใจตลอดกาล (2010) สิ่งพิมพ์ทางวิทยาศาสตร์ล่าสุดของเขาเป็นบทความสองเรื่องในคอลเลกชัน“ ความเสี่ยงของภัยพิบัติทั่วโลก” (2008) แก้ไขโดย Nick Bostrom กล่าวคือ“ ปัญญาประดิษฐ์เป็นปัจจัยเสี่ยงโลกที่เป็นบวกและลบ” และ“ บิดเบือนความรู้ความเข้าใจในการประเมินความเสี่ยงทั่วโลก” Yudkovsky ไม่ได้เรียนที่มหาวิทยาลัยและเป็นผู้สอนอัตโนมัติโดยไม่มีการศึกษาอย่างเป็นทางการในสาขา AI
Yudkovsky สำรวจการออกแบบ AI ที่มีความสามารถในการเข้าใจตนเองปรับเปลี่ยนตนเองและพัฒนาตนเองแบบเรียกซ้ำ (Seed AI) รวมถึงสถาปัตยกรรม AI ที่จะมีโครงสร้างแรงจูงใจที่มั่นคงและเป็นบวก (ปัญญาประดิษฐ์ที่เป็นมิตร) นอกเหนือจากงานวิจัยของเขาแล้ว Yudkovsky ยังเป็นที่รู้จักสำหรับคำอธิบายของเขาเกี่ยวกับแบบจำลองที่ซับซ้อนในภาษาที่ไม่ใช่เชิงวิชาการเช่นผู้อ่านที่เข้าถึงได้ในวงกว้างดูบทความของเขา“ คำอธิบายที่เข้าใจง่ายของทฤษฎีบท Bayes”
Yudkovsky พร้อมด้วย Robin Hanson เป็นหนึ่งในผู้เขียนหลักของบล็อก Overcoming Bias (การเอาชนะอคติ) ในช่วงต้นปี 2009 เขาได้เข้าร่วมในองค์กรของ Less Less Wrong ที่มุ่งเป้าไปที่ "การพัฒนาความมีเหตุผลของมนุษย์และการเอาชนะการบิดเบือนทางปัญญา" หลังจากนั้นการเอาชนะอคติกลายเป็นบล็อกส่วนตัวของแฮนสัน เนื้อหาที่นำเสนอในบล็อกเหล่านี้จัดเป็นกลุ่มของโพสต์ที่ดึงดูดผู้อ่านหลายพันคน - ตัวอย่างเช่นห่วงโซ่ทฤษฎีความบันเทิง
Yudkovsky เป็นผู้เขียนนิยายวิทยาศาสตร์หลายเรื่องที่เขาแสดงให้เห็นถึงบางหัวข้อที่เกี่ยวข้องกับความรู้ความเข้าใจวิทยาศาสตร์และเหตุผล
อาชีพ
- 2000. Yudkovsky ก่อตั้งสถาบันเอกฐาน (ภายหลังเปลี่ยนชื่อเป็น MIRI)
- 2549. Yudkovsky เข้าร่วมบล็อกการเอาชนะอคติรวมและเริ่มเขียนข้อความที่ต่อมากลายเป็นโซ่
- 2009. ตามรายการของ Yudkovsky ในเรื่อง Overcoming Bias บล็อก LessWrong.com ที่เป็นที่รู้จัก ได้แก่
- 2010-2015 Yudkovsky เขียน GPiMRM
- 2013. Yudkovsky เผยแพร่บทความล่าสุดใน LessWrong.com และหยุดเขียนบนเว็บไซต์ ณ วันที่ 2017, Yudkovsky เผยแพร่ข้อความที่เป็นสาธารณะส่วนใหญ่ใน Facebook และ Arbital
การทดลองทางความคิด
ลองนึกภาพปัญญาประดิษฐ์อัจฉริยะที่เหลือเชื่ออย่างไม่น่าเชื่อล็อคอยู่ในโลกเสมือนจริง - พูดเพียงแค่ในกล่อง คุณไม่ทราบว่าเขาจะเป็นมิตรหรือเป็นกลาง สิ่งที่คุณรู้ก็คือเขาต้องการออกจากกล่องและคุณสามารถโต้ตอบกับเขาผ่านทางส่วนต่อประสานข้อความ ถ้า AI เป็นผู้ฉลาดจริง ๆ คุณสามารถพูดคุยกับเขาเป็นเวลาห้าชั่วโมงและไม่ยอมแพ้กับการชักชวนและการจัดการของเขา - ไม่เปิดกล่องสูดดมหรือไม่?
การทดลองทางความคิดนี้เสนอโดย Eliezer Yudkowsky นักวิจัยที่สถาบันวิจัยวิศวกรรมวิศวกรรม (MIRI) MIRI มีนักวิทยาศาสตร์หลายคนที่สำรวจความเสี่ยงของการพัฒนาปัญญาประดิษฐ์ แม้ว่ามันจะยังไม่ปรากฏขึ้น แต่มันก็ดึงดูดความสนใจและกระตุ้นให้เกิดการถกเถียงกันอยู่แล้ว
Yudkovsky ให้เหตุผลว่าปัญญาประดิษฐ์สามารถพูดได้ทุกอย่างที่สามารถโน้มน้าวคุณได้: การใช้เหตุผลอย่างระมัดระวัง, การคุกคาม, การหลอกลวง, การสร้างสายสัมพันธ์, คำแนะนำจิตใต้สำนึกเป็นต้น ด้วยความเร็วแสง AI สร้างพล็อตโพรบจุดอ่อนและกำหนดว่าการโน้มน้าวใจคุณง่ายที่สุดได้อย่างไร ในฐานะที่เป็นนักทฤษฎีการคุกคามนิค Bostrom วาง "เราต้องเชื่อว่าสติปัญญาสามารถบรรลุทุกสิ่งที่มันเป็นเป้าหมาย"
การทดลองใช้ snuffbox AI ทำให้เกิดข้อสงสัยในความสามารถของเราในการควบคุมสิ่งที่เราสามารถสร้างได้ มันยังทำให้เราเข้าใจถึงความเป็นไปได้ที่แปลกประหลาดของสิ่งที่เราไม่รู้เกี่ยวกับความเป็นจริงของเราเอง