Deepfakes อาจใช้เทคโนโลยีใหม่ แต่มาจากแนวคิดเก่า

ผู้คนได้เผยแพร่ข้อมูลที่ผิดตั้งแต่เริ่มต้นของสื่อ Deepfakes

การจัดแสดงต่อเนื่องที่พิพิธภัณฑ์ภาพเคลื่อนไหวในนิวยอร์กซิตี้จะสำรวจของปลอมและบริบททางประวัติศาสตร์ โดยเริ่มจากภารกิจดวงจันทร์ของ Apollo 11 Thanassi Karageorgiou / พิพิธภัณฑ์ภาพเคลื่อนไหว

8K5G 3 1 - <strong>Deepfakes อาจใช้เทคโนโลยีใหม่ แต่มาจากแนวคิดเก่า</strong>
Deepfakes

“โชคชะตากำหนดให้คนที่ไปสำรวจดวงจันทร์อย่างสงบสุขจะอยู่บนดวงจันทร์เพื่อพักผ่อนอย่างสงบสุข”
นั่นคือคำพูดที่ Richard Nixon อ่านทางโทรทัศน์ในปี 1969 ในขณะที่ทำลายข่าวร้ายต่อประเทศที่ภารกิจ Apollo 11 ล้มเหลวและนักบินอวกาศ Neil Armstrong และ Buzz Aldrin เสียชีวิตขณะพยายามลงจอดบนดวงจันทร์ครั้งแรกแต่ในความเป็นจริงอื่นเท่านั้น Nixon ไม่เคยต้องพูดประโยคเหล่านั้นเพราะ Apollo 11 เป็นความสำเร็จครั้งประวัติศาสตร์ และ Armstrong, Aldrin และ Michael Collins นักบินของพวกเขาได้กลับมายังโลกอย่างปลอดภัย แต่มีการเตรียมสุนทรพจน์สำหรับประธานาธิบดีนิกสันในขณะนั้นในกรณีที่พวกเขาไม่ได้ทำ หนังสั้นเรื่องIn Event of Moon Disasterแสดงให้เราเห็นว่าสถานการณ์นั้นจะเกิดขึ้นได้อย่างไรด้วยการปลอมแปลงของ Nixon ที่น่าเชื่อถืออย่างไม่น่าเชื่อในการนำเสนอข่าวร้าย


[ที่เกี่ยวข้อง: 7 วิธีง่ายๆ ที่คุณสามารถบอกได้ด้วยตัวเองว่าการลงจอดบนดวงจันทร์เกิดขึ้นจริง ]
Deepfake คือการรวมกันของ “ลึก” ซึ่งหมายถึงการเรียนรู้อย่างลึกซึ้งและ “ของปลอม” ตามที่ประดิษฐ์ขึ้น เป็นป้ายกำกับสำหรับคลิปเสียงหรือวิดีโอที่ใช้ปัญญาประดิษฐ์เพื่อแสดงสถานการณ์ที่ไม่เคยเกิดขึ้นจริง โดยปกติแล้ว นั่นประกอบด้วยบุคคลที่พูดหรือทำสิ่งที่พวกเขาไม่เคยทำ บ่อยครั้งโดยปราศจากความยินยอมจากผู้ที่แสดงภาพ Halsey Burgund หนึ่งในผู้กำกับของIn Event of Moon Disaster กล่าว


ในขณะที่ Deepfakes เป็นการพัฒนาเมื่อเร็วๆ นี้ พวกเขาสร้างขึ้นจากสื่อที่มีการบิดเบือนมาอย่างยาวนานและเป็นที่ยอมรับ ซึ่งยังคงมีอยู่ในฐานะข้อมูลที่ผิดแบบเทคโนโลยีต่ำและมีผลกระทบในปัจจุบัน แม้ว่าเทคโนโลยี Deepfake จะพัฒนาไปอย่างรวดเร็ว แต่ก็มีความพยายามที่จะชะลอการเผยแพร่ และในขณะที่มีการนำ Deepfakes ไปใช้ในทางที่ผิด แต่ก็มีบางแอปพลิเคชันที่เป็นประโยชน์ในด้านต่างๆ เช่น สิทธิมนุษยชนและการเข้าถึง การจัดแสดงอย่างต่อเนื่องที่พิพิธภัณฑ์ภาพเคลื่อนไหวในนิวยอร์กซิตี้Deepfake: Unstable Evidenceสำรวจธีมเหล่านี้โดยมีIn Event of Moon Disasterเป็นหัวใจหลัก


In Event of Moon Disasterเป็นเรื่องลวงของ Richard Nixon ที่บอกประเทศชาติว่า Apollo 11 ล้มเหลว
ความแตกต่างระหว่าง Deepfake และข้อมูลที่ผิดอื่นๆ


ในการทำให้เป็นบุคคลที่มีความล้ำลึก ผู้สร้างต้องฝึกคอมพิวเตอร์โดยให้วิดีโอ เสียง หรือรูปภาพของ “เป้าหมาย” เป็นจำนวนมาก บุคคลซึ่งมีภาพและเสียงที่คุณพยายามจะจัดการ และ “แหล่งที่มา” นักแสดงที่เป็นต้นแบบของคำหรือการกระทำที่คุณต้องการให้เป้าหมายดูเหมือนพูดหรือทำ เพื่อแก้ปัญหานี้ คอมพิวเตอร์ใช้รูปแบบของโครงข่ายประสาทเทียม ซึ่งมีไว้เพื่อทำงานเหมือนกับสมองของมนุษย์ที่พยายามแก้ปัญหาด้วยการดูหลักฐาน หารูปแบบ แล้วนำรูปแบบนั้นไปใช้กับข้อมูลใหม่ โครงข่ายประสาทเทียมถูกสร้างขึ้นครั้งแรกในปี 1943 และสามารถใช้ทำทุกอย่างได้ตั้งแต่การเขียนสูตรไปจนถึงการแปลบทความในวารสารที่ซับซ้อน. การเรียนรู้เชิงลึกและการสร้าง Deepfake เกี่ยวข้องกับโครงข่ายประสาทหลายชั้น มากเสียจนคอมพิวเตอร์สามารถฝึกและแก้ไขตัวเองได้


แม้ว่าเทคโนโลยี Deepfake อาจดูเป็นอันตรายในตัวเอง แต่ก็ได้รับความช่วยเหลือจากผู้ใช้โซเชียลมีเดียในการแพร่กระจายข้อมูล บ่อยครั้งโดยไม่ต้องหยุดถามแหล่งที่มา


“Deepfakes เป็นเทคโนโลยีการผลิตทำให้เกิดความกังวลอย่างมาก” บาร์บารา มิลเลอร์ ภัณฑารักษ์ร่วมของนิทรรศการและรองผู้อำนวยการฝ่ายภัณฑารักษ์ของพิพิธภัณฑ์ภาพเคลื่อนไหวกล่าว “ฉันคิดว่าเป็นไปไม่ได้ที่จะคิดถึงความกังวลนั้นโดยไม่ได้ดูความเร็วสายฟ้าที่ข้อมูลไหลเวียน”


แต่การแพร่กระจายของข้อมูลที่ผิดอย่างมีประสิทธิภาพเกิดขึ้นก่อนการปลอมแปลงและแม้แต่โซเชียลมีเดีย การจัดแสดงจัดแสดงของปลอมในบริบทของประวัติศาสตร์อันยาวนานของ “สื่อสารคดีที่ไม่เสถียร” มิลเลอร์กล่าวเสริม ดังนั้นผู้เยี่ยมชมจึงไม่ถูกทิ้งไว้กับข้อสันนิษฐานว่าการเพิ่มขึ้นของการจัดการที่ขับเคลื่อนด้วย AI นั้นเป็นต้นเหตุของความไม่ไว้วางใจในสื่อทั้งหมด


“เทคนิคเหล่านี้เป็นเทคนิคที่มีมาตลอดตราบเท่าที่ตัวสื่อยังมีอยู่” Burgund กล่าว
การใช้ทักษะการตัดต่อวิดีโอขั้นพื้นฐาน ทำให้เกือบทุกคนสามารถแบ่งและแบ่งฟุตเทจเพื่อเปลี่ยนความหมายหรือโทนเสียงได้


ในยุค 1890 บริษัท Edison Manufacturing Company กระตือรือร้นที่จะปรับเปลี่ยนความสามารถของภาพยนตร์ด้วยการจับภาพสงครามสเปน-อเมริกาด้วยกล้อง อย่างไรก็ตาม กล้องในศตวรรษที่ 19 นั้นดูเกะกะกว่าในปัจจุบันมาก ทำให้ยากต่อการถ่ายทำการต่อสู้ในระยะใกล้ ดังนั้น บริษัทจึงได้กระจายภาพฉากของทหารอเมริกันที่ปราบกองทหารศัตรูอย่างรวดเร็วท่ามกลางภาพจริงของทหารเดินขบวนและอาวุธยุทโธปกรณ์ การตัดเฉือนทำให้เกิดความรักชาติในหมู่ผู้ชมชาวอเมริกันซึ่งไม่ได้บอกความแตกต่างระหว่างฉากจริงและฉากปลอม


แม้กระทั่งทุกวันนี้ คุณไม่จำเป็นต้องมี AI ในการสร้างข้อมูลบิดเบือนที่มีประสิทธิภาพและมีผลกระทบ Burgund กล่าวว่า “วิธีการจัดการที่พยายามและเป็นจริงซึ่งใช้ตลอดไปยังคงมีประสิทธิภาพ” Burgund กล่าว เขาอธิบายแม้ใส่คำอธิบายภาพผิดบนภาพถ่าย โดยไม่ต้องแก้ไขภาพก็สามารถสร้างข้อมูลที่ผิดได้
ยกตัวอย่างการเลือกตั้งประธานาธิบดีปี 2020 เป็นต้น ในช่วงหลายเดือนข้างหน้านี้ Miller กล่าวว่ามีความกังวลว่า Deepfakes อาจเป็นกุญแจสำคัญในกระบวนการประชาธิปไตย อย่างไรก็ตาม เทคโนโลยีนี้ไม่ได้ทำให้เกิดความกระฉับกระเฉงมากนักในระหว่างการเลือกตั้ง อย่างน้อยเมื่อเทียบกับรูปแบบการจัดการที่หยาบคายที่สามารถเผยแพร่ข้อมูลเท็จได้สำเร็จ


การใช้ทักษะการตัดต่อวิดีโอขั้นพื้นฐาน ทำให้เกือบทุกคนสามารถแบ่งและแบ่งฟุตเทจเพื่อเปลี่ยนความหมายหรือโทนเสียงได้ สิ่งเหล่านี้เรียกว่า “cheapfakes” หรือ “shallowfakes” (วิดีโอสงครามสเปน – อเมริกันที่ตัดต่อเป็นหนึ่งในตัวอย่างแรกสุด) บทนำของ In Event of Moon Disasterใช้เทคนิคเหล่านี้กับฟุตเทจที่เก็บถาวรเพื่อทำให้ดูเหมือน Apollo 11 พัง ผู้กำกับได้สลับสับเปลี่ยนภาพของยานลงจอดบนดวงจันทร์ที่กลับมาระหว่างการตัดนักบินอวกาศอย่างรวดเร็วและตั้งค่าให้เป็นเพลงประกอบของเสียงบี๊บแบบเร่งความเร็วและเสียงคงที่เพื่อสร้างภาพลวงตาที่ชวนให้วิตกกังวลว่าภารกิจผิดพลาด เนื่องจากเทคนิคเหล่านี้ต้องการความเชี่ยวชาญเพียงเล็กน้อยและมากกว่าแล็ปท็อปเพียงเล็กน้อย เทคนิคเหล่านี้จึงแพร่หลายกว่าของปลอมมาก


Joshua Glick ภัณฑารักษ์ร่วมของนิทรรศการและผู้ช่วยศาสตราจารย์ด้านภาษาอังกฤษ ภาพยนตร์ และสื่อศึกษาที่ Hendrix College กล่าวว่า “[Shallowfakes เป็น] ที่ที่เราเห็นความเสียหายได้กว้างที่สุด
อันที่จริงแล้ว วิดีโอที่โด่งดังที่สุดบางรายการที่ได้รับการถกเถียงกันว่าเป็นของปลอมนั้นแท้จริงแล้วเป็นวิดีโอราคาถูก ในปี 2019 รูดอล์ฟ จูเลียนี ทนายความของประธานาธิบดีโดนัลด์ ทรัมป์ ในขณะนั้น ทวีตวิดีโอของแนนซี เปโลซี ซึ่งดูเหมือนเธอจะพูดไม่ชัด ซึ่งทำให้นักวิจารณ์บางคนของเธอยืนยันว่าเธอเมา พบว่าวิดีโอได้รับการแก้ไขและช้าลง แต่ไม่ได้ใช้เทคโนโลยี Deepfake


Burgund และ Francesca Panetta ผู้อำนวยการร่วมของเขาคิดว่าอคติในการยืนยันคือสิ่งที่ช่วยเผยแพร่ Deepfakes หรือ cheapfakes จริงๆ แม้ว่าจะทำได้ไม่ดีก็ตาม

“ถ้า Deepfake กำลังแสดงภาพสิ่งที่คุณอยากจะเชื่อ ก็แทบจะไม่ต้องมองของจริงเลย” Burgund กล่าว
ชะลอการแพร่กระจายของ Deepfakes


Matthew Wright ผู้อำนวยการฝ่ายวิจัยของ Global Cybersecurity Institute แห่ง Rochester Institute of Technology และศาสตราจารย์ด้านความปลอดภัยทางคอมพิวเตอร์กล่าวว่าขณะนี้เทคโนโลยีดังกล่าวกำลังแพร่กระจายอย่างรวดเร็วสู่คนทั่วไปแม้ว่าในปัจจุบันจะต้องใช้ความรู้ทางเทคนิคบางอย่างเพื่อสร้าง Deepfake เช่น Burgund และ Panetta และมีแอพและซอฟต์แวร์ deepfake มากมายอยู่ แล้ว
“นี่เป็นการทำให้เทคโนโลยีที่อาจเป็นอันตรายเป็นประชาธิปไตย” Wright กล่าว
อย่างไรก็ตาม มีความพยายามที่จะชะลอหรือต่อต้านการแพร่กระจายของ Deepfakes ในขณะที่แรงกระตุ้นตามปกติในหมู่นักวิจัยด้านเทคโนโลยีคือการแบ่งปันวิธีการและเครื่องมือกับสาธารณะ Wright กล่าวว่าผู้เชี่ยวชาญบางคนที่พัฒนาเทคโนโลยี Deepfake ใหม่ได้ให้คำมั่นที่จะรักษาผลลัพธ์ของพวกเขาให้เป็นส่วนตัวมากขึ้น นอกจากนี้ยังมีโครงการต่างๆ เช่นContent Authenticity Initiativeซึ่งเป็นกลุ่มบริษัทและองค์กรต่างๆ เช่น Adobe, Twitter และNew York Timesที่มีจุดมุ่งหมายเพื่อติดตามที่มาของสื่อโดยการใส่ลายน้ำแม้ว่าจะได้รับการแก้ไขแล้วก็ตาม นี่ไม่ใช่วิธีแก้ปัญหาที่สมบูรณ์แบบ ไรท์กล่าว เพราะมีวิธีการเลี่ยงการตรวจสอบเหล่านั้น อย่างไรก็ตาม หากทุกวิดีโอที่ออกจากทำเนียบขาวถูกใส่ลายน้ำแบบดิจิทัล ก็อาจทำให้วิดีโอช้าลงหรือป้องกันไม่ให้มีการดัดแปลง
Wright กำลังทำงานเพื่อสร้างเครื่องมือตรวจจับ Deepfake ที่นักข่าวและผู้ใช้อินเทอร์เน็ตทั่วไปสามารถใช้ได้ ( Microsoft เปิดตัวผลิตภัณฑ์ที่คล้ายคลึงกันในปี 2020 ) Wright กล่าวว่าเขาและเพื่อนร่วมงานของเขาระมัดระวังอย่างมากที่จะไม่แชร์ซอร์สโค้ดทั้งหมด เพราะเป็นไปได้ว่าอาจมีใครบางคนสร้าง Deepfake เพื่อหลอกลวงเครื่องตรวจจับเหล่านี้หากพวกเขาเข้าถึงได้ แต่ถ้ามีผู้รับรองความถูกต้องหลากหลาย ก็มีโอกาสเกิดขึ้นน้อยลง
“ตราบใดที่มีการใช้เครื่องมือตรวจจับหลายตัวกับวิดีโอเหล่านี้ ฉันคิดว่าโดยรวมแล้วโอกาสในการจับ [deepfakes] นั้นค่อนข้างดี” Wright กล่าว


สารคดีเรื่องWelcome to Chechnya ปี 2020 ใช้เทคโนโลยี Deepfake เพื่อปกปิดใบหน้าของบุคคลที่เปราะบาง
คุณค่าของเทคโนโลยี DeepFake
คุณอาจเคยพบกับประโยชน์ของ Deepfakes ในด้านความบันเทิง เช่น ในภาพยนตร์ Star Wars ล่าสุดหรือในการเสียดสี เช่นStar Trek ที่ย้อนอดีตด้วยเจฟฟ์ เบโซส์ และใบหน้าของ Elon Musk อย่างไรก็ตาม เทคโนโลยีนี้ยังมีประโยชน์ในด้านสิทธิมนุษยชนและ ความพิการในการเข้าถึง
นิทรรศการ Museum of the Moving Image มีคลิปจากWelcome to Chechnyaซึ่ง เป็นสารคดีที่ได้รับรางวัลโดย David France ซึ่งใช้เทคโนโลยี Deepfake เพื่อปกปิดใบหน้าที่แท้จริงของนักเคลื่อนไหว LGBTQ ที่กำลังเผชิญกับการกดขี่ข่มเหงในสาธารณรัฐรัสเซีย ซึ่งช่วยให้ผู้ชมมองเห็นอารมณ์ของตัวแบบในขณะที่ยังคงปกป้องตัวตนของพวกเขา


เทคโนโลยีนี้ยังถูกใช้เพื่อปรับปรุงการเข้าถึงสำหรับผู้ที่สูญเสียเสียงเนื่องจากการเจ็บป่วย การบาดเจ็บ หรือความทุพพลภาพ เช่น โรคของ Lou Gehrig Burgund กล่าว ตัวอย่างเช่น VocaliDใช้ AI เพื่อสร้างเสียงของผู้ใช้จากการบันทึกเสียงเก่าสำหรับเทคโนโลยีการแปลงข้อความเป็นคำพูด หรือช่วยพวกเขาเลือกเสียงที่เหมาะกับบุคลิกของพวกเขาที่สุดจากตัวเลือกมากมาย
[ที่เกี่ยวข้อง: Deepfakes สามารถช่วยให้เราหวนคิดถึงประวัติศาสตร์—หรือเขียนใหม่ ]
ในขณะที่ Panetta และ Burgund ต้องการให้ผู้ชมของ Deepfake ซักถามที่มาของสื่อที่พวกเขาพบ พวกเขาไม่ต้องการให้ผู้ชมตื่นตระหนกจนถึงขั้นสร้างสังคมที่ไม่ไว้วางใจ
“สิ่งนี้ไม่ได้เกี่ยวกับการพยายามทำให้ผู้คนหวาดกลัวไม่เชื่อในสิ่งที่พวกเขาเห็น” Panetta กล่าว “เพราะมันเป็นปัญหาพอๆ กับข้อมูลที่ผิด”
เช่นเดียวกับความไว้วางใจใ

นสื่อสามารถเป็นอาวุธได้ ความไม่ไว้วางใจในสื่อก็สามารถเป็นอาวุธได้เช่นกัน
ในขณะที่การจัดแสดงชี้ให้เห็น แม้แต่การมีอยู่ตามทฤษฎีของ Deepfakes ก็ส่งผลให้เกิด “การจ่ายเงินปันผลของผู้โกหก” ซึ่งเราสามารถบอกเป็นนัยถึงวิดีโอจริงเป็น Deepfake ที่จะหว่านเมล็ดพันธุ์แห่งความสงสัย
ในปี 2018 ประธานาธิบดีอาลี บองโก ออนดิมบา แห่งกาบองได้ขึ้นกล่าวปราศรัยปีใหม่หลังจากประสบภาวะหลอดเลือดในสมองแตก และไม่ได้รับความสนใจจากสาธารณชน คู่แข่งทางการเมืองของเขากล่าวว่าเขาดูไม่เป็นธรรมชาติและผลักดันแนวคิดที่ว่าวิดีโอดังกล่าวเป็นวิดีโอลวงตา ในขณะที่ผู้เชี่ยวชาญเห็นพ้องกันว่าวิดีโอดูเหมือนไม่ปกติ แต่ก็ไม่มีใครสามารถพูดได้อย่างแน่นอนว่าวิดีโอนั้นเป็นของปลอมหรือไม่ โดยบางส่วนมีสาเหตุมาจากลักษณะเฉพาะของ Bongo ที่มีต่อสุขภาพที่ย่ำแย่ของเขา หนึ่งสัปดาห์ต่อมา โดยอ้างถึงความแปลกประหลาดของวิดีโอฝ่ายตรงข้ามของเขาพยายามทำรัฐประหารแต่ไม่ประสบความสำเร็จ
Wright กล่าวว่าเขาและเพื่อนร่วมงานเริ่มเห็นสถานการณ์ของหมาป่าร้องไห้ในแวดวงการเมืองมากกว่าการปลอมแปลง Deepfake ที่เกิดขึ้นจริงและก่อให้เกิดความเสียหาย “อาจมีของปลอมที่ล้ำลึก แต่ก็ไม่ใช่ของที่ใช้กันทั่วไป” เขากล่าว “สิ่งที่คุณต้องทำคือเข้าใจที่มา”
สำหรับใครก็ตามที่ข้อมูลท่วมท้นขณะเลื่อนดูโซเชียลมีเดียและข่าว จำเป็นต้องหยุดและตั้งคำถามว่า “ข้อมูลนี้มาถึงฉันได้อย่างไร? ใครเป็นคนเผยแพร่เรื่องนี้? และฉันสามารถเชื่อถือแหล่งนี้ได้หรือไม่” การทำเช่นนี้สามารถระบุได้ว่า deepfake (หรือ cheapfake) จะกลายเป็นข้อมูลที่ไม่ถูกต้องหรือเป็นเพียงวิดีโออื่นบนอินเทอร์เน็ต
Deepfake: Unstable Evidenceจะจัดแสดงที่พิพิธภัณฑ์ภาพเคลื่อนไหวในควีนส์ นิวยอร์กจนถึงวันที่ 15 พฤษภาคม 2022

o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o o

ดูเรื่องราวคอมอื่นๆ คลิ๊ก

Thank credit คาสิโนออนไลน์เว็บตรง

Leave a Reply

Your email address will not be published.

Related Post

Galaxy Book Pro 360 2-in-1Galaxy Book Pro 360 2-in-1

มาถึงเมื่อต้นปีนี้ที่งานเดือนเมษายนของ Samsung ควบคู่ไปกับ Galaxy Book Pro ซึ่งเป็นพี่น้องแบบฝาพับ ส่วนต่อท้าย 360 มาพร้อมกับคุณสมบัติที่คุณจะไม่พบ – บานพับ 360 องศาที่โดดเด่นที่สุดที่แปลงโน้ตบุ๊กหน้าจอสัมผัสให้เป็นแท็บเล็ตที่รองรับ S-Pen และไม่เหมือนกับ vanilla เพราะ Pro 360 นั้นรองรับ 5G ด้วยเช่นกัน (แต่คุณจะต้องจ่ายเพิ่มสำหรับมัน) อุปกรณ์มีความทับซ้อนกันอย่างชัดเจนกับ Galaxy Flex 2 ซึ่งเป็นรถเปิดประทุนขนาด 13

Acer Swift 3 (2020)Acer Swift 3 (2020)

อาจเป็นเครื่องราคาประหยัด แต่ Acer Swift 3 (2020) มีประสิทธิภาพเหนือกว่าแล็ปท็อปเครื่องอื่นในช่วงราคา ในขณะที่แล็ปท็อปราคาถูกส่วนใหญ่จะให้ประสบการณ์การใช้คอมพิวเตอร์ที่แทบจะทนไม่ไหว กลุ่มผลิตภัณฑ์ Swift ได้พิสูจน์ว่าการที่เครื่องมาพร้อมกับป้ายราคาต่ำไม่ได้หมายความว่าเครื่องนั้นจะไม่ใช่คอมพิวเตอร์ที่ทนทานเช่นกัน อย่างไรก็ตาม แม้แต่แล็ปท็อปราคาประหยัดที่ดีที่สุดก็ยังมา ด้วยข้อจำกัดที่มากกว่าพี่น้องที่มีราคาแพงกว่า และ Acer Swift 3 ก็ไม่มีข้อยกเว้น แต่ก็ได้รับการปรับปรุงในรุ่นก่อนด้วย โดยการอัปเดตประสิทธิภาพและอายุการใช้งานแบตเตอรี่โดยไม่ต้องปรับราคา Swift 3 อาจไม่ตรงกับสิ่งที่เราเห็นในการตรวจสอบ Dell XPS 13 (2020) แต่จะทำให้คุณใกล้ถึงเพียงเศษเสี้ยวของราคา โดยพื้นฐานแล้ว

หุ่นยนต์ตุ๊กตาสัตว์น่ารักของ Yukai Engineering จะแทะนิ้วของคุณหุ่นยนต์ตุ๊กตาสัตว์น่ารักของ Yukai Engineering จะแทะนิ้วของคุณ

มันจะไม่ ฤดูกาล CESโดยไม่มีหุ่นยนต์ผิดปรกติอย่างน้อยสองสามตัวปรากฏขึ้น Yukai Engineering ผู้ผลิตหมอนหางแมวหุ่นยนต์ Qooboได้เปิดเผยหุ่นยนต์นุ่มที่แทะปลายนิ้วของผู้ใช้ บริษัทหวังว่า “ความรู้สึกที่น่าพอใจ” จะทำให้วันของคุณสดใสขึ้น อะมากามิ แฮม แฮมมีอัลกอริธึมที่เรียกว่า “แฮมกอริธึม” ซึ่งเลือกรูปแบบการกัดหนึ่งจากสองโหล ดังนั้นคุณจะไม่มีทางแน่ใจได้เลยว่าคุณจะรู้สึกอย่างไรเมื่อเสียบตัวเลขของคุณเข้าไปในกระเพาะของหุ่นยนต์ Yukai ได้ออกแบบลวดลายต่างๆ ซึ่งรวมถึง Tasting Ham, Massaging Ham และ Suction Ham เพื่อจำลองความรู้สึกของทารกหรือสัตว์เลี้ยงที่แทะนิ้ว “อะมากามิ” หมายถึง “กัดเบาๆ” และ “แฮม” หมายถึง “กัด”