Azure AI กับโลกของ LLM – พลังเบื้องหลัง Copilot และการผนึกกำลังกับ OpenAI
Azure AI กับโลกของ LLM – พลังเบื้องหลัง Copilot และการผนึกกำลังกับ OpenAI
Azure

Azure AI กับโลกของ LLM – พลังเบื้องหลัง Copilot และการผนึกกำลังกับ OpenAI


🔹 จุดเริ่มต้นและความเป็นมา

Microsoft เป็นหนึ่งในบริษัทที่ลงทุนด้าน AI อย่างต่อเนื่อง โดยเฉพาะตั้งแต่ปี 2019 ที่ได้เริ่มความร่วมมือเชิงลึกกับ OpenAI ผู้อยู่เบื้องหลัง GPT, ChatGPT, Codex และ DALL·E

ความร่วมมือครั้งนี้ส่งผลให้ Microsoft:

  • เป็นผู้สนับสนุนหลักของ OpenAI

  • ได้สิทธิ์ในการฝังเทคโนโลยี LLM เข้ากับแพลตฟอร์มของตน

  • กลายเป็นผู้นำด้าน AI สำหรับการใช้งานจริงในระดับองค์กร

Azure กลายเป็น แพลตฟอร์มหลักในการให้บริการโมเดล GPT และโมเดลอื่น ๆ ของ OpenAI ผ่านบริการที่เรียกว่า Azure OpenAI Service


🔹 หลักการทำงานของ LLM บน Azure

Microsoft Azure ให้บริการ LLM ผ่านระบบ “AI as a Service” ที่ผู้ใช้งานสามารถเข้าถึงโมเดลผ่าน API หรือฝังเข้าแอปพลิเคชันองค์กรได้ทันที โดยมีจุดเด่นที่ผสานกับโครงสร้างพื้นฐานด้านความปลอดภัยและ compliance ระดับองค์กร

โมเดลทำงานบน:

  • เครือข่าย GPU ในศูนย์ข้อมูลของ Microsoft (Azure Global Infrastructure)

  • บริการ Azure OpenAI Studio ที่ให้ทดสอบและปรับแต่ง LLM แบบ no-code/low-code

  • ความสามารถในการ fine-tune หรือเชื่อมต่อข้อมูลภายในผ่าน RAG (Retrieval Augmented Generation)


🔹 โมเดล LLM ที่ใช้งานบน Azure

Azure รองรับโมเดลจาก OpenAI โดยตรง เช่น:

โมเดล ความสามารถ ตัวอย่างการใช้งาน
GPT-3.5 / GPT-4 ตอบคำถาม, สนทนา, สร้างข้อความ ใช้ใน ChatGPT, Copilot
Codex เขียนโค้ดจากคำสั่ง ใช้ใน GitHub Copilot
DALL·E สร้างภาพจากข้อความ ใช้ใน Bing Image Creator
Whisper แปลงเสียงเป็นข้อความ ใช้ใน Transcription APIs

โมเดลทั้งหมดสามารถเรียกใช้ผ่าน Azure OpenAI API ได้โดยตรง และเลือก deploy ได้ทั้งแบบ public และใน environment ส่วนตัว


🔹 โมเดลที่ Microsoft พัฒนาขึ้นเอง

แม้จะเน้นความร่วมมือกับ OpenAI แต่ Microsoft ก็พัฒนาโมเดลของตนเองด้วย เช่น:

  • Phi-2 และ Phi-3: โมเดลภาษาขนาดเล็ก (Small Language Models) ที่ให้ประสิทธิภาพดีในขนาดเล็กกว่า GPT มาก เหมาะสำหรับ edge devices หรืองานที่ต้องการประหยัดพลังงาน

  • Orca: โมเดลสอน LLM ให้ reasoning แบบคล้ายมนุษย์ โดยใช้ "teacher model" ขนาดใหญ่ช่วยฝึก

  • Autogen & Semantic Kernel: Framework สำหรับสร้าง LLM agent ที่ทำงานเป็นระบบ


🔹 งานวิจัยและการพัฒนาของ Microsoft

Microsoft มีทีมวิจัย AI ที่ใหญ่และร่วมมือกับ OpenAI ในหลายโครงการ โดยเน้น:

  • AI สำหรับองค์กร (Enterprise AI) – ผสานกับ Microsoft 365, Dynamics, Power Platform

  • Responsible AI & Governance – การตรวจสอบ, ควบคุมความเสี่ยง และความโปร่งใส

  • Hybrid AI & Edge AI – ทำให้ LLM ทำงานได้แม้ไม่เชื่อมต่อคลาวด์

  • Multilingual AI – พัฒนา AI ที่เข้าใจหลายภาษา โดยเฉพาะตลาดเกิดใหม่


🔹 จุดเด่นของ LLM บน Microsoft Azure

  1. ผนึกกำลังกับ OpenAI อย่างเป็นทางการ

  2. ฝัง LLM เข้า Microsoft 365 Copilot ได้ทันที

  3. เหมาะสำหรับองค์กรที่ต้องการความปลอดภัยและ compliance

  4. มีโมเดลทางเลือกขนาดเล็กอย่าง Phi ที่ประสิทธิภาพสูง

  5. มีระบบสนับสนุน agent และ plugin ecosystem ที่พร้อมใช้งาน


🔚 สรุป

 

Azure โดดเด่นในฐานะแพลตฟอร์มที่ “เชื่อมต่อ AI กับงานจริง” ได้อย่างสมบูรณ์แบบ ไม่ว่าจะเป็นในรูปแบบ Copilot ที่ฝังใน Microsoft 365 หรือการเรียกใช้ LLM ผ่าน Azure OpenAI Service ด้วยการสนับสนุนจาก OpenAI โดยตรง ทำให้ Azure เหมาะกับทั้งนักพัฒนาและองค์กรขนาดใหญ่ที่ต้องการใช้งาน AI อย่างปลอดภัย มีประสิทธิภาพ และควบคุมได้

------------

แหล่งข้อมูล:

 

GKO
Official Verified Account

What's your reaction?

Comments

https://www.wisdomzero.com/assets/images/user-avatar-s.jpg

0 comment

Write the first comment for this!

Facebook Conversations

Disqus Conversations