9krapalm.com

เฟรมเวิร์ก OMNE สำหรับหน่วยความจำ AI ระยะยาวของ Tianqiao & Chrissy Chen Institute ขึ้นแท่นอันดับหนึ่งบนตารางอันดับ GAIA

เรดวูดซิตี้, แคลิฟอร์เนีย, 29 ต.ค. 2567 /PRNewswire/ — ทีม AI ภายในของ Tianqiao & Chrissy Chen Institute (TCCI) ประสบความสำเร็จครั้งใหญ่ด้านปัญญาประดิษฐ์ด้วยความรู้เชิงลึกเกี่ยวกับสมองและความจำ โดย OMNE Multiagent Framework (เฟรมเวิร์กแบบหลายเอเจนต์) ที่พัฒนาขึ้นเอง ได้ขึ้นแท่นอันดับหนึ่งในการจัดอันดับประสิทธิภาพ GAIA (General AI Assistants หรือ ผู้ช่วย AI ทั่วไป) (https://huggingface.co/spaces/gaia-benchmark/leaderboard) ที่ร่วมเปิดตัวโดย Meta AI, Hugging Face และ AutoGPT by Hugging Face โดย OMNE ทำผลงานได้ดีกว่าเฟรมเวิร์กจากสถาบันชั้นนำของโลกบางแห่ง ซึ่งรวมถึง Microsoft Research ความสำเร็จนี้เกิดจากการวิจัยสมองที่ TCCI เป็นเวลาหลายปี ซึ่งช่วยให้เอเจนต์มีศักยภาพด้านหน่วยความจำระยะยาว (LTM) ช่วยให้เฟรมเวิร์กมีส่วนร่วมในการคิดที่ลึกซึ้งและรอบคอบ และเพิ่มความสามารถในการตัดสินใจของโมเดลภาษาขนาดใหญ่ (Large Language Models: LLM) ในการแก้ปโจทย์ที่ซับซ้อนได้


The Tianqiao & Chrissy Chen Institute was created in 2016 by Tianqiao Chen and Chrissy Luo with a US $1 billion commitment to help advance brain science. The organization’s vision is to improve the human experience by understanding how our brains perceive, learn, and interact with the world. The Institute has a strong focus on artificial intelligence due to its ability to accelerate the pace of scientific research. Read about our AI Prize www.ChenInstitute.org/prize.

ก้าวสำคัญนี้ถือเป็นความสำเร็จครั้งยิ่งใหญ่ของทีม AI ของ TCCI นับตั้งแต่ผู้ก่อตั้งสถาบันที่เคยเป็นยักษ์ใหญ่ด้านเทคโนโลยีของจีนอย่าง Tianqiao Chen ได้ประกาศ “กลยุทธ์ All-In AI” เมื่อปีที่แล้ว

ปัจจุบัน OMNE มีอัตราความสำเร็จโดยรวมอยู่ที่ 40.53% ซึ่งแซงหน้าบริษัทต่าง ๆ เช่น Meta, Microsoft, Hugging Face, มหาวิทยาลัยพรินซ์ตัน, มหาวิทยาลัยฮ่องกง, British AI Safety Research Institute และ Baichuan เมื่อเทียบกันแล้ว GPT-4 ที่ติดตั้งปลั๊กอินมีอัตราความสำเร็จเพียง 15% เท่านั้น

GAIA คือชุดข้อมูลที่มีความต้องการสูงที่สุดชุดหนึ่งสำหรับการวิเคราะห์แบบมัลติเอเจนต์ และการติดอันดับต้น ๆ บนตารางอันดับนี้แสดงให้เห็นความเชี่ยวชาญด้าน AI เชิงลึกของ TCCI และความสามารถในการขยายขอบเขตนวัตกรรม

OMNE คือเฟรมเวิร์กสำหรับการทำงานร่วมกันของหลายเอเจนต์ที่ใช้หน่วยความจำระยะยาว (LTM) เอเจนต์แต่ละตัวมีโครงสร้างระบบอิสระเหมือนกันและสามารถเรียนรู้และทำความเข้าใจโมเดลโลกทั้งหมดได้โดยอัตโนมัติ จึงเข้าใจสภาพแวดล้อมของโมเดลได้อย่างอิสระ ระบบการทำงานร่วมกันแบบหลายเอเจนต์ที่ใช้ LTM ช่วยให้ระบบ AI ปรับเปลี่ยนได้ตามการเปลี่ยนแปลงพฤติกรรมของแต่ละเอเจนต์ได้แบบเรียลไทม์ เพิ่มประสิทธิภาพในการวางแผนและดำเนินการงาน และส่งเสริมการพัฒนาตนเองที่มีประสิทธิภาพและเฉพาะเจาะจงได้

ความก้าวหน้าครั้งนี้คือการผสานกลไกหน่วยความจำระยะยาว ซึ่งช่วยลดพื้นที่การค้นหาของ MCTS ลงอย่างมาก และปรับปรุงความสามารถในการตัดสินใจเกี่ยวกับโจทย์ที่ซับซ้อน ด้วยการแนะนำการใช้เหตุผลเชิงตรรกะที่มีประสิทธิภาพมากขึ้น OMNE ไม่เพียงแต่ปรับปรุงระดับความอัจฉริยะของเอเจนต์ตัวเดียวเท่านั้น แต่ยังเพิ่มความสามารถของระบบหลายเอเจนต์ได้อย่างมีนัยสำคัญด้วยการปรับกลไกการทำงานร่วมกันให้เหมาะสม การเพิ่มประสิทธิภาพนี้ได้รับแรงบันดาลใจจากการศึกษาโครงสร้างแบบคอลัมนาร์ของเปลือกสมองมนุษย์ คอลัมน์คอร์เทกซ์ดำเนินการประมวลผลข้อมูลผ่านกลไกการทำงานร่วมกันที่ซับซ้อนในฐานะหน่วยพื้นฐานของฟังก์ชันทางปัญญาและพฤติกรรมของสมอง ด้วยการเสริมสร้างการทำงานร่วมกันระหว่างความอัจฉริยะและเอเจนต์ตัวเดียว โมเดล AI อาจค่อย ๆ สร้างความสามารถทางปัญญาขึ้น สร้างแบบจำลองการแสดงภายใน และส่งเสริมการพัฒนาแบบก้าวกระโดดด้านความอัจฉริยะของระบบ

“เราภาคภูมิใจอย่างยิ่งที่ได้เห็น OMNE ขึ้นแท่นผู้นำบนตารางอันดับ GAIA” หัวหน้าทีม AI ของ TCCI กล่าว “ความสำเร็จนี้แสดงให้เห็นศักยภาพมหาศาลในการใช้หน่วยความจำระยะยาวเพื่อขับเคลื่อนการพัฒนาตนเองของ AI และแก้ไขปัญหาในโลกแห่งความเป็นจริง เราเชื่อว่าการก้าวหน้าของการวิจัยเกี่ยวกับหน่วยความจำระยะยาวและการพัฒนาตนเองของ AI มีความสำคัญอย่างยิ่งต่อการพัฒนาอย่างต่อเนื่องและการประยุกต์ใช้เทคโนโลยี AI ในทางปฏิบัติ”

สรรหาบุคลากร: AItalents@cheninstitute.org

รูปภาพ – https://mma.prnasia.com/media2/2487043/Tianqiao_and_Chrissy_Chen_Institute__Institute_was_created_in_2016_by_Tianqiao_Chen_and_Chrissy_Luo.jpg?p=medium600

 

View original content to download multimedia: Read More

Exit mobile version