อธิบาย: Apple จะสแกนหาภาพการแสวงประโยชน์จากเด็กบนอุปกรณ์อย่างไร และเหตุใดจึงต้องเลิกคิ้ว
คาดว่าจะเปิดตัวในสหรัฐอเมริกาในขั้นต้น โดยฟีเจอร์ดังกล่าวรวมถึงการใช้เทคโนโลยีใหม่เพื่อจำกัดการแพร่กระจายของ CSAM ทางออนไลน์ โดยเฉพาะอย่างยิ่งผ่านแพลตฟอร์มของ Apple

Apple ได้ประกาศว่า การอัปเดตซอฟต์แวร์ในปลายปีนี้จะนำเสนอคุณสมบัติใหม่ ที่จะช่วยปกป้องเด็กจากนักล่าที่ใช้เครื่องมือสื่อสารในการรับสมัครและใช้ประโยชน์จากพวกเขา และจำกัดการแพร่กระจายของสื่อการล่วงละเมิดทางเพศเด็ก (CSAM)
คาดว่าจะเปิดตัวในสหรัฐอเมริกาในขั้นต้น โดยฟีเจอร์ดังกล่าวรวมถึงการใช้เทคโนโลยีใหม่เพื่อจำกัดการแพร่กระจายของ CSAM ทางออนไลน์ โดยเฉพาะอย่างยิ่งผ่านแพลตฟอร์มของ Apple
จากนั้นจะมีการป้องกันบนอุปกรณ์สำหรับเด็กไม่ให้ส่งหรือรับเนื้อหาที่ละเอียดอ่อน โดยมีกลไกแจ้งเตือนผู้ปกครองในกรณีที่ผู้ใช้อายุต่ำกว่า 13 ปี Apple จะเข้าไปแทรกแซงเมื่อใช้ Siri หรือ Search เพื่อค้นหาหัวข้อที่เกี่ยวข้องกับ CSAM .
Apple กำลังใช้เทคโนโลยีใดเพื่อป้องกันการแพร่กระจายของ CSAM ทางออนไลน์
ในบล็อกโพสต์ Apple อธิบายว่าจะใช้แอปพลิเคชั่นการเข้ารหัสผ่าน iOS และ iPadOS เพื่อจับคู่รูปภาพ CSAM ที่รู้จักซึ่งจัดเก็บไว้ใน iCloud Photo เทคโนโลยีจะจับคู่รูปภาพบน iCloud ของผู้ใช้กับรูปภาพที่ทราบโดยองค์กรด้านความปลอดภัยเด็ก และสิ่งนี้ทำได้โดยไม่ได้เห็นภาพจริง ๆ และโดยการค้นหาสิ่งที่เหมือนกับลายนิ้วมือที่ตรงกันเท่านั้น ในกรณีที่มีการจับคู่ข้ามเกณฑ์ Apple จะรายงานกรณีเหล่านี้ไปยัง National Center for Missing and Exploited Children (NCMEC)
Apple ชี้แจงว่าเทคโนโลยีของตนรักษาความเป็นส่วนตัวของผู้ใช้ด้วยเหตุนี้ฐานข้อมูลจึงถูกเปลี่ยนเป็นชุดแฮชที่อ่านไม่ได้ซึ่งจัดเก็บไว้อย่างปลอดภัยบนอุปกรณ์ของผู้ใช้ มันเสริมว่าก่อนที่จะอัปโหลดรูปภาพใด ๆ ไปยัง iCloud ระบบปฏิบัติการจะจับคู่กับแฮช CSAM ที่รู้จักโดยใช้เทคโนโลยีการเข้ารหัสที่เรียกว่าชุดแยกส่วนตัว เทคโนโลยีนี้จะกำหนดการจับคู่โดยไม่เปิดเผยผลลัพธ์
ณ จุดนี้ อุปกรณ์จะสร้างบัตรกำนัลความปลอดภัยการเข้ารหัสด้วยผลการแข่งขันและข้อมูลที่เข้ารหัสเพิ่มเติม และบันทึกลงใน iClouds พร้อมรูปภาพ เทคโนโลยีการแบ่งปันความลับตามเกณฑ์ช่วยให้แน่ใจว่า Apple ไม่สามารถตีความบัตรกำนัลเหล่านี้ได้ เว้นแต่บัญชี iCloud Photos จะข้ามเกณฑ์ของเนื้อหา CSAM ที่รู้จัก บล็อกที่อ้างว่าเกณฑ์นี้ถูกกำหนดขึ้นเพื่อให้ระดับความแม่นยำสูงสุด และรับประกันโอกาสน้อยกว่าหนึ่งในหนึ่งล้านล้านต่อปีในการติดธงบัญชีที่ระบุอย่างไม่ถูกต้อง ดังนั้นภาพเดียวจึงไม่น่าจะทำให้เกิดการแจ้งเตือน
แต่ถ้าเกินเกณฑ์ Apple สามารถตีความเนื้อหาของบัตรกำนัลความปลอดภัยและตรวจสอบรายงานแต่ละฉบับด้วยตนเองเพื่อจับคู่ ปิดการใช้งานบัญชีของผู้ใช้ และส่งรายงานไปยัง NCMEC Apple กล่าวว่าผู้ใช้จะสามารถอุทธรณ์ได้หากคิดว่าตนถูกตั้งค่าสถานะอย่างไม่ถูกต้อง
ฟีเจอร์อื่นๆ ทำงานอย่างไร
ความปลอดภัยในการสื่อสารแบบใหม่ของ Apple สำหรับ Messages จะเบลอภาพที่ละเอียดอ่อนและเตือนเด็กเกี่ยวกับธรรมชาติของเนื้อหา หากเปิดใช้งานจากแบ็กเอนด์ เด็กจะได้รับการแจ้งว่าผู้ปกครองได้รับการแจ้งเตือนเกี่ยวกับข้อความที่พวกเขาดู เช่นเดียวกับในกรณีที่เด็กตัดสินใจที่จะส่งข้อความที่ละเอียดอ่อน Apple กล่าวว่า Messages จะใช้การเรียนรู้ของเครื่องในอุปกรณ์เพื่อวิเคราะห์ไฟล์แนบของรูปภาพและพิจารณาว่ารูปภาพมีความโจ่งแจ้งทางเพศหรือไม่ และ Apple จะไม่สามารถเข้าถึงข้อความได้ ฟีเจอร์นี้จะเป็นการอัปเดตในบัญชีที่ตั้งค่าเป็นตระกูลใน iCloud สำหรับระบบปฏิบัติการเวอร์ชันล่าสุด
นอกจากนี้ ด้วยการอัปเดต เมื่อผู้ใช้พยายามค้นหาหัวข้อ CSAM ที่เป็นไปได้ Siri และ Search จะอธิบายว่าทำไมสิ่งนี้จึงอาจเป็นอันตรายและเป็นปัญหาได้ ผู้ใช้จะได้รับคำแนะนำเกี่ยวกับวิธีการยื่นรายงานเกี่ยวกับการแสวงประโยชน์จากเด็กหากพวกเขาร้องขอ
| อธิบาย: อย่างไรและเพราะเหตุใด Google จึงให้การคุ้มครองเด็กทางออนไลน์มากขึ้น
เหตุใด Apple จึงทำเช่นนี้และมีข้อกังวลอะไรบ้าง?
บริษัทเทคโนโลยีขนาดใหญ่อยู่ภายใต้แรงกดดันมาหลายปีให้ปราบปรามการใช้แพลตฟอร์มของตนเพื่อแสวงหาประโยชน์จากเด็ก ในช่วงหลายปีที่ผ่านมามีรายงานหลายฉบับที่เน้นย้ำว่ายังไม่เพียงพอที่จะหยุดเทคโนโลยีจากการทำให้เนื้อหา CSAM สามารถเข้าถึงได้ในวงกว้างมากขึ้น
อย่างไรก็ตาม การประกาศของ Apple ได้รับการวิพากษ์วิจารณ์โดยหลายๆ คนเน้นย้ำว่าเทคโนโลยีการเฝ้าระวังนี้เป็นแบบเดียวกับที่รัฐบาลจำนวนมากต้องการและชอบที่จะใช้ในทางที่ผิดอย่างไร ข้อเท็จจริงที่ว่าสิ่งนี้มาจาก Apple ซึ่งเป็นสิ่งที่ปฏิเสธความเป็นส่วนตัวมาอย่างยาวนาน ทำให้หลายคนประหลาดใจ
นอกจากนี้ ผู้เชี่ยวชาญด้านการเข้ารหัสเช่น Matthew Green จาก Johns Hopkins University ได้แสดงความกลัวว่าระบบจะสามารถนำมาใช้เพื่อจัดเฟรมผู้บริสุทธิ์ที่ส่งรูปภาพที่มีจุดประสงค์เพื่อกระตุ้นการจับคู่สำหรับ CSAM นักวิจัยสามารถทำได้ค่อนข้างง่าย เขากล่าวกับ NPR และเสริมว่าเป็นไปได้ที่จะหลอกอัลกอริทึมดังกล่าว
แต่ The New York Times อ้างถึง Erik Neuenschwander หัวหน้าเจ้าหน้าที่ความเป็นส่วนตัวของ Apple ว่าฟีเจอร์เหล่านี้ไม่ได้มีความหมายอะไรสำหรับผู้ใช้ทั่วไป
หากคุณกำลังจัดเก็บคอลเลกชั่นของสื่อ CSAM ใช่ สิ่งนี้ไม่ดีสำหรับคุณ เขาบอกกับสื่อสิ่งพิมพ์
จดหมายข่าว| คลิกเพื่อรับคำอธิบายที่ดีที่สุดของวันนี้ในกล่องจดหมายของคุณ
บริษัทเทคโนโลยีรายใหญ่อื่นๆ มีเทคโนโลยีที่คล้ายคลึงกันหรือไม่?
ใช่. อันที่จริง Apple เข้ามาค่อนข้างช้าในที่เกิดเหตุ เนื่องจาก Microsoft, Google และ Facebook ได้แจ้งเตือนหน่วยงานบังคับใช้กฎหมายเกี่ยวกับภาพ CSAM Apple ล้าหลังเพราะเทคโนโลยีดังกล่าวจะขัดต่อความมุ่งมั่นต่อความเป็นส่วนตัวของผู้ใช้ ส่งผลให้ในปี 2020 เมื่อ Facebook รายงานการละเมิด CSAM จำนวน 20.3 ล้านครั้งต่อ NCMEC Apple สามารถรายงานได้เพียง 265 เคสเท่านั้น The New York Times รายงาน
เฉพาะตอนนี้เท่านั้นที่สามารถหาจุดศูนย์กลางด้านเทคโนโลยีเพื่อทำสิ่งนี้ได้โดยไม่กระทบต่อผู้ใช้ทั่วไปหรืออย่างน้อยก็ทำให้พวกเขาหวาดกลัว อย่างไรก็ตาม ตามที่แสดงฟันเฟืองเบื้องต้น มันยังคงเป็นการเดินไต่เชือก
แบ่งปันกับเพื่อนของคุณ: