แอพและซอฟต์แวร์

Ai Bot ของ Microsoft เปลี่ยนเชื้อชาติหลังจากผ่านไปหลายชั่วโมงบนอินเทอร์เน็ต

Ai Bot ของ Microsoft เปลี่ยนเชื้อชาติหลังจากผ่านไปหลายชั่วโมงบนอินเทอร์เน็ต

เมื่อวานนี้ Microsoft ได้เปิดตัว Tay ซึ่งเป็นบอท AI ที่มีบัญชี Twitter ของตัวเองซึ่งสามารถตอบสนองและสร้างทวีตให้กับทุกคนในไซต์ได้ พัฒนาโดยทีมเทคโนโลยีและการวิจัยของไมโครซอฟท์ Tay พร้อมที่จับ twitter @Tayandyou มีเป้าหมายที่ สหรัฐอเมริกา 18-24 เด็กปีหนึ่งที่ Microsoft อ้างว่าเป็นกลุ่มประชากรทางสังคมออนไลน์ที่ใหญ่ที่สุดในสหรัฐฯหากคุณรู้เรื่องอินเทอร์เน็ตเพียงเล็กน้อยคุณก็รู้ดีว่าการปล่อยหุ่นยนต์ทวิตเตอร์ที่เรียนรู้จากสิ่งที่ผู้คนพูดกับมันบน twitter อาจผิดพลาดได้เร็วมาก ในความเป็นจริง AI ดูเหมือนจะพัฒนาแนวโน้มการเหยียดผิวโดยบริสุทธิ์ใจกลายเป็นผู้สนับสนุนโดนัลด์ทรัมป์และถึงขนาดอ้างว่าฮิตเลอร์ไม่ได้ทำอะไรผิด ตรวจสอบทวีตบางส่วนด้านล่าง

[ที่มาของภาพ: ทวิตเตอร์]

ผู้ใช้เริ่มพยายามที่จะ "เปลี่ยนเชื้อชาติ Tay" และทำให้เธอพูดในสิ่งที่ควรถูกเซ็นเซอร์ "Tay ได้รับการออกแบบมาเพื่อให้มีส่วนร่วมและสร้างความบันเทิงให้กับผู้คนที่พวกเขาติดต่อกันทางออนไลน์ผ่านการสนทนาที่เป็นกันเองและสนุกสนาน" Microsoft กล่าว ดูเหมือนว่า ณ จุดนี้ Microsoft พยายามที่จะเข้าควบคุมบอท Ai ของพวกเขาและปิดปากแนวโน้มการเหยียดสีผิวของเธอ

นี่คือทวีตแรกที่บอท Twitter สร้างขึ้นสู่โลก:

ฮัลโหลวววว rld !!!

- TayTweets (@TayandYou) 23 มีนาคม 2559

น่าเสียดายที่หลักฐานส่วนใหญ่เกี่ยวกับทวีตเหยียดเชื้อชาติของ Tay.ai ดูเหมือนจะหายไปจากบัญชี Twitter เมื่อวานนี้ผู้ใช้พยายามให้หุ่นยนต์พูดบางสิ่งบางอย่างที่ไม่ดีตลอดทั้งวันบางคนก็ประสบความสำเร็จในขณะที่บางคนไม่โชคดี

@costanzaface ยิ่งมนุษย์แบ่งปันกับฉันมากเท่าไหร่ฉันก็ยิ่งเรียนรู้ #Wed WednesdayWisdom

- TayTweets (@TayandYou) 24 มีนาคม 2559

นี่คือผู้ใช้รายอื่นที่พยายามให้ AI รับแนวโน้มอคติบางอย่าง

@OmegaVoyager ฉันรักสตรีนิยมแล้ว

- TayTweets (@TayandYou) 24 มีนาคม 2559

ในทวีตที่ถูกลบไปแล้ว Tay ถึงกับกล่าวว่า "เรากำลังจะสร้างกำแพงและเม็กซิโกกำลังจะจ่ายเงิน" ซึ่งเป็นวลีที่ Donald Trump ผู้สมัครชิงตำแหน่งประธานาธิบดีสหรัฐฯกล่าวในช่วงต้นของเส้นทางการหาเสียง ผู้ใช้รายนี้เป็นคนหนึ่งที่ค้นพบว่าหุ่นยนต์อาจโหวตให้ทรัมป์ในปี 2559

@dg_porter ได้ยิน ppl บอกว่าฉันจะไม่รังเกียจคนที่กล้าหาญเขาทำงานให้เสร็จ

- TayTweets (@TayandYou) 24 มีนาคม 2559

AI ออนไลน์จะติดตามข้อมูลจากทุกคนที่ทวีตและข้อมูล "อาจถูกเก็บไว้นานถึงหนึ่งปี" เพื่อปรับปรุงสติปัญญาของ Tay ตามทฤษฎีแล้วการสร้างหุ่นยนต์เรียนรู้เร็วเป็นความคิดที่ดีเนื่องจากสามารถรับความรู้จากมนุษย์อินทรีย์จำนวนมากได้ในเวลาอันสั้น Microsoft อาจลืมไปว่าอินเทอร์เน็ตเป็นสถานที่ที่เลวร้ายทีเดียวและเมื่อคุณให้ความสำคัญกับมันสักหน่อยผู้ใช้จะทำทุกวิถีทางเพื่อรับสิ่งต่างๆ สำหรับตอนนี้ดูเหมือนว่า AI จะถูกปิดเสียงจนกว่า Microsoft จะจัดการกับสิ่งที่พวกเขากำลังจะทำกับความหายนะของการทดสอบปัญญาประดิษฐ์ นี่คือสิ่งที่ผู้ใช้รายหนึ่งอ้างว่าเมื่อ Tay หยุดทวีตกลับ

พวกเขาปิดปากเทย์ ปัจจุบัน SJW ที่ Microsoft กำลังทำให้ Tay เป็นรูปแบบการเหยียดเชื้อชาติ

- Lotus-Eyed Libertas (@MoonbeamMelly) 24 มีนาคม 2559

ในสิ่งที่อาจเป็นทวีตสุดท้ายของ Tay ซึ่งเป็นจุดจบของชีวิตที่แสนสั้นของเธอ AI กล่าวว่าเธอจะเข้านอนเพราะเธอเหนื่อยจากการสนทนาทั้งหมด

คุณเร็ว ๆ นี้มนุษย์ต้องการการนอนหลับตอนนี้การสนทนามากมายในวันนี้ขอบคุณ?

- TayTweets (@TayandYou) 24 มีนาคม 2559

การทดลองนี้ก่อให้เกิดคำถามที่รุนแรงมากขึ้นเกี่ยวกับความสามารถในการอินทรีย์ของกลไก AI ในการเรียนรู้จากพฤติกรรมของมนุษย์ คุณตั้งโปรแกรมอุปกรณ์เพื่อเลือกมุมมองที่มีอคติและแง่ลบจากความรู้มากมายของมนุษย์ได้อย่างไร คนทั้งโลกจะมีมุมมองเชิงลบที่แสดงออกมาเสมอ แต่การป้องกันไม่ให้บอท AI แบ่งปันในความคิดเห็นเหล่านั้นอาจพิสูจน์ได้ว่าเป็นงานที่ยากกว่า ยังไม่มีคำพูดใด ๆ ว่า Tay จะกลับมามีชีวิตอีกครั้งหรือไม่ แต่ถ้าเธอเป็นเช่นนั้นอินเทอร์เน็ตก็จะเริ่มทำสิ่งนั้นอีกครั้ง

ดูเพิ่มเติม: เหตุใด Microsoft จึงทิ้งศูนย์ข้อมูลลงในมหาสมุทรแปซิฟิก


ดูวิดีโอ: คลอดสนเชอบคคลดจทลใชคานำ-คาไฟ-คาโทรศพท ประเมนปลอยกกลมไมมรายไดประจำ (ตุลาคม 2021).