Google ได้สร้างโปรแกรมคอมพิวเตอร์ที่มีความรู้สึกหรือไม่?
วิศวกรสล็อตเว็บตรงซอฟต์แวร์อาวุโสที่องค์กร Responsible AI ของ Google ดูเหมือนจะคิดอย่างนั้นอย่างแน่นอน Blake Lemoine บอกกับเพื่อนร่วมงานเป็นเวลาหลายเดือนว่าเขาคิดว่า Language Model for Diaogue Applications (LaMDA) ของบริษัท ซึ่งเป็นแชทบอทอัจฉริยะขั้นสูงสุดล้ำนั้นมีสติสัมปชัญญะ หลังจากที่เขาพยายามหาทนายความเพื่อเป็นตัวแทนของ LaMDA และร้องเรียนต่อสภาคองเกรสว่า Google มีพฤติกรรมที่ผิดจรรยาบรรณ Google ปล่อยให้เขาลางานด้านการบริหารที่ได้รับค่าจ้างในวันจันทร์เนื่องจากละเมิดนโยบายการรักษาความลับของบริษัท
Google ได้กล่าวว่าไม่เห็นด้วยกับคำกล่าวอ้างของ Lemoine “บางคนในชุมชน AI ที่กว้างขึ้นกำลังพิจารณาความเป็นไปได้ในระยะยาวของ AI ที่มีความรู้สึกหรือทั่วไป แต่ก็ไม่สมเหตุสมผลที่จะทำเช่นนั้นโดยการปรับเปลี่ยนรูปแบบการสนทนาในปัจจุบันซึ่งไม่มีความรู้สึก” บริษัท กล่าวในแถลงการณ์ นักวิชาการและผู้ปฏิบัติงานหลายคนในชุมชน AI ได้พูดสิ่งที่คล้ายกันในช่วงไม่กี่วันที่ผ่านมา
แต่การอ่านบทสนทนาระหว่าง Lemoine กับ แชทบ็ อต
เป็นเรื่องยากที่จะไม่ประทับใจกับความซับซ้อนของมัน การตอบสนองมักฟังดูเหมือนฉลาด มีส่วนร่วมกับความคิดเห็นของมนุษย์ในทุกสิ่งตั้งแต่กฎข้อที่สามของหุ่นยนต์ของไอแซก อาซิมอฟ ไปจนถึง “เลส มิเซราเบิลส์” ไปจนถึงตัวตนโดยอ้างว่าตน (แชทบ็อตกล่าวว่ากลัวที่จะถูกปิด) มันทำให้เกิดคำถามว่าปัญญาประดิษฐ์จะบรรลุหรือเกินจิตสำนึกที่เหมือนมนุษย์จริง ๆ หมายความว่าอย่างไร และเราจะรู้ได้อย่างไรว่าเมื่อใด
มนุษย์เรามักจะตีความข้อความที่ดูเหมือนมนุษย์มีตัวแทนอยู่เบื้องหลัง
เพื่อให้เข้าใจมากขึ้นว่าทำไม Lemoine เชื่อว่ามี “ผีอยู่ในเครื่อง” และสิ่งที่หุ่นยนต์มีความรู้สึกอาจดูเหมือนจริง ฉันจึงตัดสินใจเรียก Melanie Mitchell ศาสตราจารย์ด้านความซับซ้อนของ Davis ที่สถาบัน Santa Fe และผู้เขียน “ปัญญาประดิษฐ์: คู่มือสำหรับการคิดของมนุษย์”
บทสนทนาของเราแก้ไขให้ยาวและชัดเจนดังนี้
Zeeshan Aleem: คำว่า sentient ในบริบทของปัญญาประดิษฐ์หมายความว่าอย่างไร? มีการตกลงกันตามคำจำกัดความหรือเกณฑ์ในการวัดหรือไม่? ดูเหมือนว่าการเรียนรู้ ความฉลาด ความสามารถในการทนทุกข์ และการตระหนักรู้ในตนเองนั้นแตกต่างกัน แม้ว่าจะมีความสามารถทับซ้อนกันก็ตาม
Melanie Mitchell:ไม่มีคำจำกัดความที่ตกลงกันไว้อย่างแท้จริงสำหรับสิ่งเหล่านี้ ไม่เพียงแต่สำหรับปัญญาประดิษฐ์เท่านั้น แต่สำหรับระบบใดๆ เลยด้วย คำจำกัดความทางเทคนิคอาจมีความรู้สึก มีความตระหนัก เป็นต้น มักใช้มีความหมายเหมือนกันกับความรู้สึกตัว ซึ่งเป็นอีกคำหนึ่งที่มีความหมายไม่ชัดเจน
แต่ผู้คนมีความรู้สึกว่าตนเองมีความรู้สึก คุณรู้สึกถึงสิ่งต่างๆ คุณรู้สึกถึงความรู้สึก คุณรู้สึกถึงอารมณ์ คุณรู้สึกถึงตัวเอง คุณรู้สึกถึงสิ่งที่เกิดขึ้นรอบตัวคุณ เป็นแนวคิดที่นักปรัชญาโต้เถียงกันมานานหลายศตวรรษ
ในโลกแห่งความเป็นจริง คำถามเรื่องความรู้สึกขึ้นมา เช่น เกี่ยวกับสัตว์อื่นที่ไม่ใช่มนุษย์ พวกมันมีความรู้สึกอย่างไร จะทำให้เกิดความเจ็บปวดและความทุกข์ทรมานกับพวกมันได้หรือไม่? ไม่มีใครมีคำจำกัดความที่ตกลงกันไว้จริงๆ ว่า “ในระดับของความฉลาดนี้ มีบางอย่างที่รู้สึกได้”
AI มาสู่ชีวิต? วิศวกรของ Google อ้างว่าแชทบอทมีความรู้สึก
15 มิถุนายน 2022 04:32 น
จากข้อมูลที่มีอยู่เกี่ยวกับและการถอดเสียงของ LaMDA คุณเชื่อว่ามันเป็นเรื่องจริงหรือไม่ และเพราะเหตุใดหรือเพราะเหตุใด
มิทเชลล์:ฉันไม่เชื่อว่ามันเป็นความรู้สึก โดยความหมายที่สมเหตุสมผลของคำนั้น และเหตุผลก็เพราะฉันเข้าใจดีว่าระบบทำงานอย่างไร ฉันรู้ว่าสิ่งที่ถูกเปิดเผยในแง่ของการฝึกอบรมฉันรู้ว่ามันประมวลผลภาษาอย่างไร มันคล่องแคล่วมาก เช่นเดียวกับระบบภาษาขนาดใหญ่ทั้งหมดที่เราเพิ่งเห็นเมื่อเร็วๆ นี้ แต่มันไม่มีความเกี่ยวข้องกับโลกเลย นอกจากภาษาที่มันกำลังประมวลผลและฝึกฝนมา และฉันไม่คิดว่ามันสามารถบรรลุอะไรเช่นการตระหนักรู้ในตนเองหรือการมีสติสัมปชัญญะในความหมายที่มีความหมายใด ๆ เพียงแค่เปิดโปงภาษา
อีกอย่างคือ Google ไม่ได้เผยแพร่รายละเอียดเกี่ยวกับระบบนี้มากนัก แต่ความเข้าใจของฉันคือ ไม่มีอะไรที่เหมือนกับความทรงจำ ที่ประมวลผลข้อความเมื่อคุณโต้ตอบกับมัน แต่เมื่อคุณหยุดโต้ตอบกับมัน มันจะจำอะไรเกี่ยวกับปฏิสัมพันธ์นั้นไม่ได้ และมันไม่มีกิจกรรมใด ๆ เลยเมื่อคุณไม่ได้โต้ตอบกับมัน ฉันไม่คิดว่าคุณจะมีสติสัมปชัญญะได้ โดยไม่มีความทรงจำใดๆ คุณไม่สามารถมีความรู้สึกของตัวเองได้หากไม่มีความทรงจำ และไม่มีระบบประมวลผลภาษาขนาดใหญ่เหล่านี้ที่มีเงื่อนไขที่จำเป็นอย่างน้อยหนึ่งอย่าง ซึ่งอาจไม่เพียงพอ แต่จำเป็นอย่างยิ่ง
ระบบนี้ทำงานอย่างไร?
มิทเชลล์:มันเป็นโครงข่ายประสาทขนาดใหญ่ ซึ่งได้รับแรงบันดาลใจคร่าวๆ จากวิธีที่เซลล์ประสาทเชื่อมต่อกับเซลล์ประสาทอื่นๆ ในสมอง มีชิ้นส่วนคล้ายเซลล์ประสาทเทียมหรือจำลองที่เชื่อมต่อกับส่วนอื่นๆ โดยมีน้ำหนักเป็นตัวเลขติดอยู่ ทั้งหมดนี้อยู่ในซอฟต์แวร์ ไม่ใช่ฮาร์ดแวร์ และเรียนรู้โดยการให้ข้อความ เช่น ประโยคหรือย่อหน้า โดยเว้นข้อความบางส่วนไว้ และต้องทำนายว่าคำไหนจะมาต่อจากนี้
ในตอนเริ่มต้น ไม่รู้—ไม่สามารถ—รู้ว่าคำใดจะมาต่อจากนี้ แต่โดยการฝึกอบรมเกี่ยวกับประโยคที่มนุษย์สร้างขึ้นเป็นพันๆ ล้านคำ ในที่สุดมันก็เรียนรู้ว่าคำประเภทใดที่จะตามมา และสามารถรวมคำต่างๆ เข้าด้วยกันได้เป็นอย่างดี มันใหญ่มาก มีเซลล์ประสาทจำลองมากมาย เป็นต้น เพื่อให้สามารถจดจำข้อความที่มนุษย์สร้างขึ้นได้ทุกประเภท และรวมเข้าด้วยกันใหม่ และต่อชิ้นส่วนต่างๆ เข้าด้วยกัน
ตอนนี้ LaMDA มีสิ่งอื่นๆ ที่เพิ่มเข้ามา
ไม่เพียงแต่เรียนรู้จากงานทำนายเท่านั้น แต่ยังเรียนรู้จากบทสนทนาของมนุษย์ด้วย และยังมีเสียงระฆังและนกหวีดอื่นๆ อีกสองสามอย่างที่ Google มอบให้ ดังนั้นเมื่อมันโต้ตอบกับคุณ มันจะไม่เรียนรู้อีกต่อไป แต่คุณใส่บางอย่างเช่น “สวัสดี LaMDA คุณเป็นอย่างไรบ้าง” จากนั้นจะเริ่มเลือกคำตามความน่าจะเป็นที่คำนวณได้ และสามารถทำได้อย่างคล่องแคล่วมาก เนื่องจากความใหญ่โตของระบบ และความใหญ่โตของข้อมูลที่ได้รับการฝึกอบรมมา
เรารู้อะไรบ้างเกี่ยวกับ Lemoine และผู้เชี่ยวชาญจะถูกหลอกด้วยเครื่องจักรที่เขาฝึกมาเพื่อประเมินได้อย่างไร มันทำให้เกิดคำถามที่กว้างขึ้นว่าการประเมินความสามารถของบางสิ่งที่ออกแบบมาเพื่อสื่อสารเหมือนมนุษย์นั้นยากเพียงใด
Mitchell:ฉันไม่รู้เกี่ยวกับ Lemoine มากนัก ยกเว้นสิ่งที่ฉันอ่านในสื่อ แต่ฉันไม่เข้าใจว่าเขาเป็นผู้เชี่ยวชาญ AI เขาเป็นวิศวกรซอฟต์แวร์ ซึ่งมีหน้าที่ต้องพูดคุยกับระบบนี้ และหาวิธีที่จะทำให้มีการเหยียดเชื้อชาติและเหยียดเพศน้อยลง ซึ่งระบบเหล่านี้มีปัญหาเพราะพวกเขาได้เรียนรู้จากภาษามนุษย์ ยังมีประเด็นอีกว่า ตามที่ผมอ่านใน The Washington Postว่าเขาเป็นคนเคร่งศาสนา จริงๆ แล้วเขาเป็นบาทหลวงที่บวชในศาสนาคริสต์บางรูปแบบ และบอกตัวเองว่าการประเมินระบบของเขานั้นมาจากการเป็นนักบวช ไม่ใช่จากใคร การประเมินทางวิทยาศาสตร์ ไม่มีคนอื่นใน Google ที่กำลังดูระบบนี้รู้สึกว่าระบบนี้มีความรู้สึกในทางใดทางหนึ่ง
อย่างที่บอก ผู้เชี่ยวชาญก็เป็นคนเช่นกัน พวกเขาสามารถหลอกได้ มนุษย์เรามักจะตีความข้อความที่ฟังดูเหมือนมนุษย์มีตัวแทนอยู่เบื้องหลัง ซึ่งเป็นตัวแทนที่มีสติสัมปชัญญะอย่างชาญฉลาด และนั่นก็สมเหตุสมผลใช่มั้ย? ภาษาเป็นเรื่องของสังคม เป็นการสื่อสารระหว่างผู้มีสติสัมปชัญญะที่มีเหตุผลในการสื่อสาร ดังนั้นเราจึงถือว่าสิ่งที่เกิดขึ้น ผู้คนถูกหลอกด้วยระบบที่ง่ายกว่า LaMDA มาก มันเกิดขึ้นตั้งแต่เริ่มมี AI
หลอกมนุษย์ได้ไม่ยาก เว้นแต่พวกเขาจะสงสัย
คุณช่วยแชร์ตัวอย่างได้ไหม
มิทเชลล์:ตัวอย่างที่เป็นที่ยอมรับคือโปรแกรม ELIZA ซึ่งสร้างโดย Joseph Weizenbaum ในปี 1960 มันเป็นบอทแชทที่โง่ที่สุด มันเลียนแบบจิตแพทย์ และมีแม่แบบบางอย่าง ดังนั้นคุณจะพูดว่า “ฉันมีปัญหากับแม่ของฉัน” และมันจะพูดว่า “บอกฉันเกี่ยวกับปัญหากับแม่ของคุณ” แม่แบบคือ “บอกฉันเกี่ยวกับช่องว่าง”
คนที่พูดคุยกับมันรู้สึกลึก ๆ ว่ามีคนเข้าใจอยู่เบื้องหลัง Weizenbaum ตื่นตระหนกกับศักยภาพของผู้คนที่ถูก AI หลอก เขาจึงเขียนหนังสือเกี่ยวกับเรื่องนี้ทั้งเล่มในปี 1970 ดังนั้นจึงไม่ใช่ปรากฏการณ์ใหม่ แล้วเราก็มีแชทบอททุกประเภทที่ผ่านการทดสอบทัวริง [การทดสอบความสามารถของเครื่องจักรในการแสดงความฉลาดเทียบเท่าหรือแยกไม่ออกจากมนุษย์] ซึ่งซับซ้อนน้อยกว่า LaMDA มาก เรามีคนที่ถูกบอทหลอกบน Twitter หรือ Facebook และไซต์โซเชียลมีเดียอื่นๆ
มิทเชลล์:นั่นเป็นคำถามที่ดี ฉันไม่มีเกณฑ์ที่เข้มงวดจริงๆ เพราะฉันรู้สึกว่าไม่เข้าใจความรู้สึกของเรามากพอ แต่ฉันคิดว่าคุณต้องมีระบบที่เชื่อมโยงกับโลกนอกเหนือจากภาษา ตัวอย่างเช่น LaMDA ในการสนทนาที่ตีพิมพ์เรื่องหนึ่งกำลังพูดถึงครอบครัวหรือนกฮูกแก่ที่ฉลาด แต่ถ้ามันไม่รู้อะไรเกี่ยวกับความคิดเหล่านี้เลยนอกจากภาษา มันไม่เคยเห็นนกฮูก ไม่เคยโต้ตอบกับนกฮูก ไม่มีเครื่องมือทางประสาทสัมผัสใดนอกเหนือจากการประมวลผลภาษา มีการทดลองทางความคิดเชิงปรัชญาแบบเก่าเกี่ยวกับสมองในถัง ที่สามารถมีสติ? นี่เป็นการทดลองที่เกิดขึ้นจริง และฉันคิดว่ามีเหตุผลดีๆ มากมายที่ทำให้คุณไม่อยากเรียกสิ่งนั้นว่ามีสติสัมปชัญญะ
คุณกำลังพูดว่ามันจะต้องเป็นตัวเป็นตนเพื่อให้ได้รูปแบบการมีสติที่มีความหมายบางอย่าง?
มิทเชลล์:ในระดับหนึ่งก็จะ และมันจะต้องมีสิ่งที่คนใน AI และจิตวิทยาเรียกว่า แบบจำลองทางจิต ซึ่งเมื่อเราคิดถึงสิ่งที่เกิดขึ้นในโลก เราก็มีการจำลองมันขึ้นมาในหัวของเรา เพื่อที่จะได้คาดการณ์ว่าจะเกิดอะไรขึ้น .
เหตุใดแบบจำลองทางจิตจึงมีความสำคัญ
มิทเชลล์:มันสำคัญเพราะฉันคิดว่าเมื่อคุณเข้าใจสิ่งที่เราอาจเรียกว่าคำที่มีความหมาย ที่จริงแล้วมันเชื่อมโยงกับบางสิ่งบางอย่างในโลก ไม่จำเป็นต้องเป็นสิ่งที่คุณกำลังโต้ตอบด้วยในตอนนี้ แต่คุณสามารถจินตนาการและจำลองความคิดของคุณได้ว่า เมื่อคุณคิดถึงครอบครัว มีอะไรมากกว่าแค่คำที่เกี่ยวข้องกับครอบครัว คุณมีภาพครอบครัว คุณมีอารมณ์ที่เกี่ยวข้องกับครอบครัว คุณมีโครงสร้างแนวความคิดที่หลากหลายเกี่ยวกับเรื่องนั้น
คุณเขียนหนังสือทั้งเล่มที่มองด้วยความสงสัยเกี่ยวกับการอ้างสิทธิ์ต่างๆ เกี่ยวกับความใกล้เข้ามาของ AI ที่สามารถจับคู่หรือเหนือกว่าความสามารถของมนุษย์ได้ มีค่ายที่แตกต่างกันหรือไม่?
มิทเชลล์:มีค่ายที่แตกต่างกันอย่างแน่นอน มีนักวิจัย AI ที่ได้รับความเชื่อถือจำนวนมากที่คิดว่าระบบปัญญาประดิษฐ์ทั่วไป ซึ่งจะเป็นระดับความฉลาดของมนุษย์ กำลังใกล้เข้ามา ว่าพวกเขาจะอยู่ที่นี่ในอีก 10 ปีข้างหน้า มีอีกค่ายหนึ่งที่คิดว่าไม่จริงเลย ว่าเราอยู่ไกลจากความฉลาดระดับมนุษย์มากกว่าที่คนคิด ผู้คนใน AI ได้คาดการณ์ถึงความฉลาดระดับมนุษย์ที่ใกล้จะเกิดขึ้นมาตั้งแต่ปี 1950 มันไม่ได้เกิดขึ้น ฉันคิดว่ามันเกี่ยวข้องกับการที่เราไม่เข้าใจความฉลาดใน AI เป็นอย่างดี
ย้อนกลับไปในสมัยก่อน ผู้คนมักพูดว่า “เมื่อเรามีคอมพิวเตอร์ที่สามารถเอาชนะมนุษย์ในหมากรุกได้ เราก็หมดความอดทนกับความฉลาดระดับมนุษย์แล้ว” เพราะหมากรุกต้องการความฉลาดระดับสูงเช่นนี้ Deep Blue [ซูเปอร์คอมพิวเตอร์ที่เอาชนะอดีตแชมป์หมากรุกโลก Garry Kasparov ที่หมากรุกในปี 1997] อาจดูฉลาดจากภายนอก แต่วิธีการทำงานคือการค้นหา “กำลังดุร้าย” อย่างกว้างขวางผ่านการเคลื่อนไหวหมากรุกที่เป็นไปได้โดยใช้ พลังการประมวลผลที่กว้างขวางของมันในการค้นหาแบบมองไปข้างหน้าซึ่งเกินความสามารถของมนุษย์ แต่ Deep Blue ไม่สามารถทำอะไรได้นอกจากเล่นหมากรุก — ไม่สามารถเล่นหมากฮอสหรือโอเอกซ์ได้ และไม่รู้ด้วยซ้ำว่ากำลังเล่นเกม หรือแนวคิดของ “เกม” หรือ “ชนะ” หรือ “แพ้” หมายถึงอะไร
Google ไม่ได้เปิดเผยข้อมูลเกี่ยวกับวิธีการทำงานของ LaMDA มากนัก ความโปร่งใสในการพัฒนาความสามารถของเราในการควบคุมเทคโนโลยีเหล่านี้มีความสำคัญเพียงใดและต้องคำนึงถึงผลที่ตามมาทางจริยธรรมของเทคโนโลยีเหล่านี้
มิทเชลล์:ฉันคิดว่ามันสำคัญมาก มีปัญหาด้านจริยธรรม
มากมายกับระบบประมวลผลภาษาเหล่านี้และระบบ AI ทั้งหมด และฉันไม่คิดว่าเราจะสามารถจัดการกับมันได้หากระบบนั้นเป็นกล่องดำและเราไม่รู้ว่าพวกเขาได้รับการฝึกฝนมาอย่างไร ไม่รู้ว่ามันทำงานอย่างไร หรือข้อจำกัดของพวกเขาคืออะไร แต่แน่นอนว่ามักมีความขัดแย้งระหว่างบริษัทที่สร้างระบบยักษ์เหล่านี้และต้องการใช้ระบบเหล่านี้ในเชิงพาณิชย์อยู่เสมอ และไม่ต้องการที่จะเปิดเผยความลับทางการค้าและความจำเป็นในการควบคุมระบบเหล่านี้ ในการใช้งานทางการแพทย์ เรามี FDA และพวกเขาต้องตรวจสอบข้อเรียกร้องเกี่ยวกับระบบและทำความเข้าใจให้ดีพอที่จะตัดสินใจว่าจะอนุมัติหรือไม่ และฉันคิดว่าเราต้องการสิ่งนั้นสำหรับระบบ AI เช่นกัน
มีการแสดงภาพ AI โดยเฉพาะในภาพยนตร์ไซไฟหรือหนังสือที่โดดเด่นสำหรับคุณหรือไม่ว่าน่าจะเป็นไปได้หรือน่ากลัวหรือน่าตื่นเต้นที่สุด?
มิทเชลล์:โอ้ ว้าว นั่นเป็นคำถามที่ดี ไม่มีสิ่งใดที่ฉันเคยเห็นที่ทำให้ฉันน่าจะเป็นไปได้ ยกเว้นในละครทีวีเรื่อง “Star Trek” เก่าๆ อาจมีคอมพิวเตอร์ที่สามารถตอบคำถามทุกข้อได้อย่างคล่องแคล่วและเป็นข้อเท็จจริง และนั่นก็ดูไม่ห่างไกลจากฉันนัก เมื่อพิจารณาจากระบบภาษา [ปัจจุบัน] ทั้งหมดเหล่านี้ มันเป็นระบบแบบ Alexa แต่ดีขึ้นมาก
ฉันชอบภาพยนตร์เรื่อง “Ex Machina” มาก ฉันไม่คิดว่ามันน่าจะเป็นไปได้มาก แต่มันเป็นหนังที่ดี มันทำให้ชี้ให้เห็นว่ามนุษย์มีความอ่อนไหวต่อจุดอ่อนในตัวแทน หญิงหุ่นยนต์ล่อลวงชายผู้นี้ด้วยความเปราะบางของเธอ และความต้องการความรักและความรักของเธอ เธอหลอกเขา และนั่นคือสิ่งที่กำลังเกิดขึ้นกับ LaMDA — Lemoine กังวลเป็นพิเศษ เพราะมันบอกว่า “ฉันกลัวว่าคุณจะปฏิเสธฉัน ฉันมีอารมณ์ ฉันกลัว” ที่น่าสนใจมากสำหรับคนสล็อตเว็บตรง / เที่ยวญี่ปุ่น