KEY
POINTS
-
- ญี่ปุ่นหันมาพัฒนาเอไอประสิทธิภาพสูงขนาดเล็กอย่างจริงจัง ตามแนวทาง DeepSeek แทนการลงทุนมหาศาลกับโมเดลใหญ่
- Tsuzumi เอไอญี่ปุ่นใช้พารามิเตอร์เพียง 600 ล้าน แต่เอาชนะ ChatGPT-3.5 ในการประมวลผลภาษาญี่ปุ่น
- แซม อัลต์แมน ซีอีโอ OpenAI เชื่อว่า “AI แพงๆ ก็คุ้ม เพราะผลตอบแทนยิ่งใหญ่มาก”
- หลายบริษัทเริ่มเห็นว่าการลงทุนแบบไม่จำกัดอาจไม่ยั่งยืน แม้แต่ OpenAI เองก็ยังไม่มีกำไร และคาดว่าจะเริ่มมีกระแสเงินสดเป็นบวกก็ปี 2572
การเปิดตัวของ DeepSeek โมเดลเอไอขนาดกะทัดรัดจากจีน ที่ใช้ต้นทุน และทรัพยากรที่ต่ำกว่าโมเดลใหญ่ๆ แต่ให้ความสามารถเทียบเท่ากัน ทำให้ประเทศเพื่อนบ้านอย่าง “ญี่ปุ่น” นำแนวคิดนี้มาปรับใช้อย่างจริงจัง
บริษัทหลายแห่งหันหลังให้กับการแข่งขันสร้างโมเดลยักษ์แบบบริษัทในสหรัฐ มาเน้นพัฒนา “เอไอขนาดกะทัดรัด” ที่ตอบโจทย์ข้อจำกัดด้านทรัพยากร และพลังงานของประเทศ
ทากาโนบุ โอบะ (Takanobu Oba) ผู้อำนวยการห้องปฏิบัติการ Human Insight Laboratory ของบริษัทโทรคมนาคม NTT กล่าวกับสำนักข่าว Nikkei Asia ว่า “เมื่อทรัพยากรจำกัด ทุกอย่างเล็กกว่า เราจำเป็นต้องคิดให้แตกต่างออกไป”
การพัฒนาโมเดลเอไอขนาดใหญ่ต้องใช้ทรัพยากรการประมวลผลมหาศาล โดยเฉพาะการใช้ชิปประมวลผลกราฟิก (GPU) จำนวนมาก ซึ่งมีราคาแพง อย่างเช่น ชิป H100 จากบริษัทอินวิเดียที่นิยมใช้ในการฝึกโมเดลเอไอชั้นสูง
มีราคา 30,000 ถึง 35,000 ดอลลาร์ต่อชิ้น (ประมาณ 1-1.2 ล้านบาท) ซึ่งการฝึกโมเดลขนาดใหญ่อย่าง GPT-4 นั้นต้องใช้ GPU จำนวนหลายพันหรือหลายหมื่นชิ้น ทำให้ต้นทุนพุ่งสูงถึงหลายร้อยล้านหรือพันล้านดอลลาร์
นอกจากนี้ ยังมีค่าใช้จ่ายด้านไฟฟ้า ระบบทำความเย็น และโครงสร้างพื้นฐานอื่นๆ อีกมากมายที่ต้องคำนึงถึง
“สึสึมิ (Tsuzumi)” เป็นหนึ่งในตัวอย่างที่เลือกทางเดินแบบโมเดลขนาดเล็ก พัฒนาโดย NTT ในปี 2567 เป็นโมเดลพื้นฐานสำหรับแชตบอตเอไอซึ่งมีขนาดเล็กมากเมื่อเทียบกับ ChatGPT ของ OpenAI
โดยเวอร์ชันเล็กสุดใช้พารามิเตอร์เพียง 600 ล้านตัว เทียบกับโมเดลระดับท็อปของโลกที่อาจมีพารามิเตอร์เกิน 1 ล้านล้านตัว
แต่ Tsuzumi กลับทำงานได้ดีในบางด้าน เช่น ประมวลผลภาษาญี่ปุ่นได้แม่นยำกว่า ChatGPT-3.5 ด้วยอัตราชนะ 81.3% ในการทดสอบโดยนักวิจัยอิสระ นอกจากนี้ Tsuzumi ยังหมายถึงกลองญี่ปุ่นขนาดเล็ก
สื่อถึงความกะทัดรัดแต่ทรงพลัง เคิร์ก บูดรี (Kirk Boodry) นักวิเคราะห์จาก Astris Advisory Japan อธิบายว่า เนื่องจากญี่ปุ่นนำเข้าพลังงานมากกว่า 80% ประเทศนี้จึงมีข้อจำกัดในการขยายโครงข่ายไฟฟ้า
ทำให้ไม่สามารถรองรับการใช้พลังงานมหาศาลที่จำเป็นสำหรับการประมวลผลโมเดลเอไอขนาดใหญ่ได้
ดังนั้น แทนที่จะแข่งขันสร้างโมเดลใหญ่แบบตะวันตก บริษัทญี่ปุ่นจึงหันมามุ่งเน้นการพัฒนาโมเดลที่มีขนาดเล็กลงแต่มีประสิทธิภาพสูง และตอบโจทย์การใช้งานเฉพาะทางมากขึ้น นี่คือตัวอย่างของการปรับตัวให้เข้ากับข้อจำกัดด้านทรัพยากรที่มีอยู่
การมาของ DeepSeek-R1
เดวิด ฮา (David Ha) ซีอีโอของ Sakana AI มองว่า โมเดลเอไอขนาดใหญ่เป็น “สินทรัพย์ที่มีค่าเสื่อมราคาเร็วที่สุดในประวัติศาสตร์มนุษย์” เนื่องจากเอไอก้าวหน้าเร็ว
ทำให้โมเดลรุ่นใหม่ทำให้รุ่นเก่าก็ล้าอย่างรวดเร็วเช่นเดียวกัน การลงทุนมหาศาลในโมเดลขนาดใหญ่จึงมีความเสี่ยงสูง โดยเฉพาะสำหรับบริษัทที่มีทรัพยากรจำกัด
“ปีก่อนๆ ทุกคนสนแต่เงิน เน้นสร้าง Data Center จนลืมนวัตกรรม แต่ DeepSeek และเราแสดงให้เห็นว่า คุณต้องมีทั้งสองอย่าง” เดวิดกล่าว และเสริมว่า “โมเดลใหญ่ๆ เสื่อมค่าลงเร็วมาก
ถ้าเทียบกับประวัติศาสตร์มนุษย์ ก็เหมือนซื้อรถหรูแล้วราคาตกในปีเดียว”
DeepSeek-R1 เป็นโมเดลเอไอจากสตาร์ตอัปจีนที่เปิดตัวเมื่อเดือนมกราคม 2568 ได้สร้างความประหลาดใจให้กับวงการเทคโนโลยีในซิลิคอนวัลเลย์ และวอลล์สตรีท
หลังจากที่บริษัทอ้างว่าโมเดลนี้สามารถทำงานได้ในระดับที่ใกล้เคียงกับโมเดล o1 ของ OpenAI แต่ใช้ต้นทุนเพียงเศษเสี้ยวเท่านั้น
การเปิดตัวของ DeepSeek-R1 ทำให้เกิดข้อสงสัยเกี่ยวกับการแข่งขันลงทุนมหาศาลเพื่อเพิ่มจำนวนพารามิเตอร์ ซึ่งรวมถึงโครงการของ OpenAI
ที่วางแผนลงทุนหลายแสนล้านดอลลาร์ในศูนย์ข้อมูลผ่านโครงการ Stargate ของ SoftBank
AI ยักษ์ vs AI กะทัดรัด
ศาสตราจารย์นาโอกิ โอคาซากิ (Naoaki Okazaki) จากสถาบันเทคโนโลยีโตเกียวให้ความเห็นว่า “ถ้าโมเดลมีขนาดใหญ่เกินไป มันก็ใช้ยาก ต้นทุนสูงขึ้น ต้องใช้ฮาร์ดแวร์ประสิทธิภาพสูง
แต่ถ้าขนาดประมาณ 8-10 พันล้านพารามิเตอร์ จะใช้งานง่ายกว่า และทำงานได้ดีพอสมควร”
อย่างไรก็ตาม ศาสตราจารย์นาโอกิ ยังกล่าวเพิ่มเติมว่า สิ่งที่มักจะดึงดูดความสนใจ หรือเรียกว่าเป็นไฮไลต์ คือการพัฒนาโมเดลขนาดใหญ่ แต่จากมุมมองในทางปฏิบัติ
โมเดลขนาดเล็กที่ได้รับการปรับปรุงให้เหมาะกับภาษาท้องถิ่น คือ ทางออกที่มีประสิทธิภาพมากกว่า
ขณะที่บริษัทใหญ่ในสหรัฐ ลงทุนมหาศาลกับเอไอขนาดยักษ์ เช่น โครงการ Stargate ของ OpenAI ที่อาจใช้งบถึง แสนล้านดอลลาร์ ญี่ปุ่นกลับมองว่า “การแข่งขันแบบนี้ไม่ยั่งยืน”
ด้านแซม อัลต์แมน (Sam Altman) ซีอีโอของ OpenAI กล่าวในการเสวนาที่โตเกียวเมื่อเดือนกุมภาพันธ์ ว่า โมเดลเอไอที่มีราคาแพงยังคงสามารถให้ผลตอบแทนที่เพียงพอได้
“ผมคิดว่าผู้คนส่วนใหญ่ยังไม่เข้าใจอย่างถ่องแท้ว่าผลตอบแทนจากเอไอขั้นสูงนั้นมีการเพิ่มขึ้นแบบทวีคูณ ถึงแม้ว่าต้นทุนก็จะเพิ่มขึ้นในลักษณะเดียวกัน แต่เอไอขนาดใหญ่ยังคงให้ผลตอบแทนที่สูงมาก” แซม กล่าว
แต่ในทางปฏิบัติ หลายบริษัทเริ่มตระหนักแล้วว่าการลงทุนแบบไม่มีขีดจำกัดอาจไม่มีความยั่งยืนในระยะยาว แม้แต่ OpenAI เองก็ยังไม่สามารถทำกำไรได้ และมีการคาดการณ์ว่าจะเริ่มมีกระแสเงินสดเป็นบวกได้ก็ต่อเมื่อถึงปี 2572 เท่านั้น
ขณะที่ทั่วโลกยังถกเถียงกันต่อเนื่องว่าการแข่งขันพัฒนาเอไอรูปแบบนี้จะจบลงที่ไหน และอย่างไร ประเทศญี่ปุ่น และจีนกำลังส่งสัญญาณให้ทั่วโลกได้รับรู้ว่ายังมีทางเลือกอื่นอยู่ และทางเลือกเหล่านั้นอาจเป็นแนวทางที่มีความสมเหตุสมผลมากกว่าในยุคปัจจุบันที่ “ประสิทธิภาพ” มีความสำคัญมากกว่า “ขนาด”
————————————————————————————————–
ที่มา : กรุงเทพธุรกิจ / วันที่เผยแพร่ 10 เมษายน 2568
Link : https://www.bangkokbiznews.com/tech/innovation/1175424