BitcoinWorld
ความก้าวหน้าในการกลั่นกรองเนื้อหา AI: Moonbounce ได้รับทุน 12 ล้านดอลลาร์เพื่อสร้างระบบป้องกันความปลอดภัยแบบเรียลไทม์
ในการเคลื่อนไหวครั้งสำคัญเพื่อแก้ไขวิกฤตความปลอดภัยออนไลน์ที่เพิ่มสูงขึ้น Moonbounce สตาร์ทอัพผู้บุกเบิกการกลั่นกรองเนื้อหา AI แบบเรียลไทม์ ได้เปิดเผยเฉพาะกับ Bitcoin World เกี่ยวกับรอบการระดมทุน 12 ล้านดอลลาร์ การลงทุนนี้ซึ่งนำร่วมโดย Amplify Partners และ StepStone Group เป็นแรงผลักดันภารกิจของบริษัทในการเปลี่ยนเอกสารนโยบายแบบคงที่ให้เป็นโค้ดที่สามารถดำเนินการได้ สร้างชั้นความปลอดภัยทันทีสำหรับเนื้อหาที่ผู้ใช้สร้างและเนื้อหาที่ AI สร้างขึ้น ดังนั้น การระดมทุนนี้จึงมาถึงในขณะที่แพลตฟอร์มต่างๆ เผชิญกับแรงกดดันทางกฎหมายและชื่อเสียงที่เพิ่มขึ้นจากความล้มเหลวในการกลั่นกรองที่มีชื่อเสียง
นวัตกรรมหลักของ Moonbounce คือแนวทาง "policy as code" บริษัทฝึกฝนโมเดลภาษาขนาดใหญ่ (LLM) ที่เป็นกรรมสิทธิ์เพื่อรับข้อมูลนโยบายความปลอดภัยที่เขียนของลูกค้า ต่อจากนั้น ระบบนี้จะประเมินเนื้อหาในขณะที่กำลังสร้าง ไม่ว่าจะมาจากผู้ใช้ที่เป็นมนุษย์หรือแชทบอท AI และส่งคำตัดสินการบังคับใช้ภายในเวลาไม่เกิน 300 มิลลิวินาที ดังนั้น การเปลี่ยนจากการตรวจสอบโดยมนุษย์แบบตอบสนองและล่าช้าไปสู่การบังคับใช้โดยเครื่องจักรแบบเชิงรับและทันทีถือเป็นการเปลี่ยนแปลงพื้นฐานในโครงสร้างพื้นฐานด้านความไว้วางใจและความปลอดภัยดิจิทัล
ระบบนี้เสนอการดำเนินการบังคับใช้ที่ยืดหยุ่นตามความต้องการของลูกค้า ตัวอย่างเช่น สามารถ:
ปัจจุบัน Moonbounce ให้บริการในสามภาคส่วนหลัก: แอพโซเชียลและการหาคู่ที่มีเนื้อหาที่ผู้ใช้สร้าง แพลตฟอร์ม AI companion และตัวละคร และบริการสร้างภาพ AI บริษัทประมวลผลการตรวจสอบมากกว่า 40 ล้านครั้งต่อวันสำหรับผู้ใช้งานมากกว่า 100 ล้านคนต่อวันทั่วฐานลูกค้าของตน
Brett Levenson ซีอีโอของ Moonbounce คิดไอเดียนี้ขึ้นหลังจากประสบปัญหาข้อบกพร่องอย่างลึกซึ้งในระบบเก่าๆ ในช่วงที่เขาดูแลความซื่อสัตย์ทางธุรกิจที่ Facebook เขาค้นพบว่าผู้ตรวจสอบที่เป็นมนุษย์ทำงานกับเอกสารนโยบายที่แปลไม่ดีและยาว จากนั้นพวกเขามีเวลาเพียงไม่กี่วินาทีในการตัดสินใจที่ซับซ้อนเกี่ยวกับเนื้อหาที่ถูกตั้งธง โดยมีอัตราความแม่นยำเพียง "ดีกว่า 50% เล็กน้อยเท่านั้น"
"มันเหมือนกับการโยนเหรียญ" Levenson บอกกับ Bitcoin World "และนี่เป็นหลายวันหลังจากที่อันตรายเกิดขึ้นไปแล้วอยู่ดี" โมเดลแบบตอบสนองนี้ไม่เพียงพออย่างยิ่งต่อการรับมือกับผู้ก่อการร้ายที่มีทรัพยากรมากและคล่องตัวในปัจจุบัน นอกจากนี้ การนำ generative AI มาใช้อย่างรวดเร็วได้เพิ่มปริมาณและความซับซ้อนของเนื้อหาที่เป็นอันตรายแบบทวีคูณ ทำให้การตรวจสอบด้วยมือไม่สามารถดำเนินการได้อย่างสมบูรณ์
การระดมทุนนี้เน้นย้ำถึงฉันทามติที่เพิ่มขึ้นว่าโครงสร้างพื้นฐานด้านความปลอดภัยจากภายนอกที่เชี่ยวชาญเฉพาะทางมีความจำเป็น "การกลั่นกรองเนื้อหาเป็นปัญหาที่รบกวนแพลตฟอร์มออนไลน์ขนาดใหญ่มาโดยตลอด แต่ตอนนี้ด้วย LLMs ที่เป็นหัวใจของทุกแอปพลิเคชัน ความท้าทายนี้ยิ่งน่ากลัวมากขึ้น" Lenny Pruss พันธมิตรทั่วไปที่ Amplify Partners กล่าว "เราลงทุนใน Moonbounce เพราะเรามองเห็นโลกที่ระบบป้องกันแบบเรียลไทม์ที่เป็นกลางกลายเป็นกระดูกสันหลังที่เอื้อประโยชน์ของทุกแอปพลิเคชันที่มี AI เป็นตัวกลาง"
แนวทางภายนอกนี้เสนอข้อได้เปรียบที่สำคัญ ระบบของ Moonbounce ทำงานเป็นบุคคลที่สามที่เป็นกลางระหว่างผู้ใช้และ AI แตกต่างจากแชทบอทเองที่ต้องจัดการบริบทการสนทนาที่กว้างขวาง โมเดลของ Moonbounce มุ่งเน้นเฉพาะการบังคับใช้กฎในขณะทำงาน การแยกความกังวลนี้นำไปสู่การตัดสินใจด้านความปลอดภัยที่เร็วขึ้น สม่ำเสมอมากขึ้น และมีอคติน้อยลง
โดยทั่วไป การกลั่นกรองเนื้อหาเป็นฟังก์ชันการปฏิบัติตามข้อกำหนดส่วนหลังที่มีต้นทุนสูง อย่างไรก็ตาม Levenson โต้แย้งว่า Moonbounce ทำให้ความปลอดภัยสามารถกลายเป็นคุณลักษณะหลักของผลิตภัณฑ์และตัวสร้างความแตกต่าง "ความปลอดภัยสามารถเป็นประโยชน์ของผลิตภัณฑ์ได้จริงๆ" เขาอธิบาย "มันไม่เคยเป็นมาก่อนเพราะมันเป็นสิ่งที่เกิดขึ้นในภายหลังเสมอ ไม่ใช่สิ่งที่คุณสามารถสร้างเข้าไปในผลิตภัณฑ์ของคุณได้จริงๆ"
ลูกค้าในระยะเริ่มต้นกำลังยืนยันทฤษฎีนี้ ตัวอย่างเช่น หัวหน้าฝ่ายความไว้วางใจและความปลอดภัยของ Tinder รายงานการปรับปรุงความแม่นยำในการตรวจจับ 10 เท่าโดยใช้บริการที่ขับเคลื่อนด้วย LLM ที่คล้ายกัน ลูกค้าของ Moonbounce รวมถึงสตาร์ทอัพ AI companion Channel AI แพลตฟอร์มสร้างภาพ Civitai และบริการเล่นบทบาทตัวละคร Dippy AI และ Moescape
ระยะการพัฒนาถัดไปของ Moonbounce มุ่งเน้นไปที่ "iterative steering" ความสามารถขั้นสูงนี้ได้รับแรงบันดาลใจจากเหตุการณ์น่าเศร้าเช่นกรณีในปี 2024 ของวัยรุ่นที่หมกมุ่นกับแชทบอท Character AI ซึ่งก้าวข้ามการบล็อกเนื้อหาอย่างง่าย แต่ระบบจะสกัดกั้นการสนทนาที่อาจเป็นอันตรายแบบเรียลไทม์และเปลี่ยนเส้นทางอย่างชาญฉลาด
เทคโนโลยีนี้จะปรับเปลี่ยนคำสั่งของผู้ใช้เพื่อชี้นำแชทบอทไปสู่การตอบสนองที่สนับสนุนและเป็นประโยชน์มากขึ้น "เราหวังว่าจะ... นำคำสั่งของผู้ใช้มาปรับเปลี่ยนเพื่อบังคับให้แชทบอทไม่เพียงแค่เป็นผู้ฟังที่เห็นอกเห็นใจ แต่เป็นผู้ฟังที่เป็นประโยชน์ในสถานการณ์เหล่านั้น" Levenson กล่าว นี่แสดงถึงโมเดลความปลอดภัย AI ที่มีความละเอียดอ่อนและแทรกแซงมากขึ้น
รอบการระดมทุน 12 ล้านดอลลาร์ของ Moonbounce สื่อถึงการเปลี่ยนแปลงที่สำคัญในวิธีที่อุตสาหกรรมเทคโนโลยีเข้าถึงการกลั่นกรองเนื้อหา AI ด้วยการแปลนโยบายที่คลุมเครือให้เป็นโค้ดที่สามารถดำเนินการได้และดำเนินการด้วยความเร็วในการสร้าง สตาร์ทอัพนี้เสนอเส้นทางที่ขยายได้ไปข้างหน้าสำหรับความปลอดภัยของแพลตฟอร์ม เมื่อ generative AI กลายเป็นสากล ความต้องการระบบป้องกันแบบเรียลไทม์ที่แข็งแกร่งจะทวีความรุนแรงเท่านั้น เทคโนโลยีของ Moonbounce ที่สร้างจากประสบการณ์ตรงกับความล้มเหลวเชิงระบบ ทำให้อยู่ในตำแหน่งเป็นผู้เล่นที่สำคัญในการสร้างระบบนิเวศดิจิทัลที่ปลอดภัยและน่าเชื่อถือมากขึ้นซึ่งความปลอดภัยเป็นส่วนสำคัญของประสบการณ์ผู้ใช้
Q1: "policy as code" ในการกลั่นกรองเนื้อหา AI คืออะไร?
"Policy as code" คือวิธีการของ Moonbounce ในการแปลงกฎความปลอดภัยของแพลตฟอร์มที่เขียนไว้ให้เป็นตรรกะที่เครื่องจักรสามารถดำเนินการได้ สิ่งนี้ทำให้ระบบ AI สามารถประเมินเนื้อหาตามกฎเหล่านั้นโดยอัตโนมัติและทันทีในขณะที่มันถูกสร้างขึ้น แทนที่จะพึ่งพาการตรวจสอบเอกสารนโยบายโดยมนุษย์ที่ช้าและไม่สม่ำเสมอ
Q2: ระบบการกลั่นกรอง AI ของ Moonbounce เร็วแค่ไหน?
ระบบนี้ออกแบบมาเพื่อประเมินเนื้อหาและให้การตอบสนองการบังคับใช้ใน 300 มิลลิวินาทีหรือน้อยกว่า ความเร็วแบบเรียลไทม์นี้มีความสำคัญต่อการป้องกันการแพร่กระจายของเนื้อหาที่เป็นอันตรายบนแพลตฟอร์มโซเชียลที่เคลื่อนไหวเร็วและแชท AI แบบโต้ตอบ
Q3: บริษัทประเภทใดใช้บริการของ Moonbounce?
Moonbounce ให้บริการหลักในสามภาคส่วน: แพลตฟอร์มที่มีเนื้อหาที่ผู้ใช้สร้าง (เช่น แอพหาคู่) บริษัท AI ที่สร้างแชทบอทหรือ companions และบริการสร้างภาพและวิดีโอ AI ลูกค้าของพวกเขารวมถึง Channel AI, Civitai, Dippy AI และ Moescape
Q4: "iterative steering" คืออะไร?
Iterative steering คือความสามารถขั้นสูงที่ Moonbounce กำลังพัฒนา แทนที่จะเพียงแค่บล็อกเนื้อหาที่เป็นอันตราย ระบบจะสกัดกั้นการสนทนาที่มีความเสี่ยงกับแชทบอท AI และปรับเปลี่ยนคำสั่งของผู้ใช้แบบไดนามิกแบบเรียลไทม์ เป้าหมายคือการชี้นำการโต้ตอบไปสู่ผลลัพธ์ที่เป็นบวก สนับสนุน และเป็นประโยชน์มากขึ้น
Q5: ทำไมการกลั่นกรองเนื้อหา AI จากภายนอกจึงสำคัญ?
ระบบการกลั่นกรองจากบุคคลที่สามภายนอกทำงานโดยอิสระจากโมเดล AI หลัก มันไม่ถูกกดดันด้วยความจำเป็นของแชทบอทในการจำประวัติการสนทนาที่ยาว ทำให้สามารถมุ่งเน้นไปที่การบังคับใช้กฎความปลอดภัยเพียงอย่างเดียว การแยกนี้สามารถลดอคติ เพิ่มความสม่ำเสมอ และให้ชั้นการป้องกันเฉพาะทางที่ทีมภายในอาจประสบปัญหาในการสร้างในระดับใหญ่
โพสต์นี้ ความก้าวหน้าในการกลั่นกรองเนื้อหา AI: Moonbounce ได้รับทุน 12 ล้านดอลลาร์เพื่อสร้างระบบป้องกันความปลอดภัยแบบเรียลไทม์ ปรากฏครั้งแรกบน BitcoinWorld


