วิธีการใช้โมเดลการให้เหตุผลของ OpenAI: o1-preview/o1-Mini Models - แชท AI ฟรี

· อ่าน 2 นาที
Felo Search Tips Buddy
Committed to answers at your fingertips

Felo AI Chat รองรับการใช้โมเดลการให้เหตุผล O1 ฟรีแล้ว

ในภูมิทัศน์ที่พัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์ OpenAI ได้แนะนำชุดโมเดลภาษาขนาดใหญ่ที่เปลี่ยนเกมซึ่งเรียกว่า ซีรีส์ o1 โมเดลเหล่านี้ถูกออกแบบมาเพื่อทำงานที่ต้องใช้การคิดอย่างซับซ้อน ทำให้เป็นเครื่องมือที่ทรงพลังสำหรับนักพัฒนาและนักวิจัยเช่นกัน ในโพสต์บล็อกนี้เราจะสำรวจวิธีการใช้โมเดลการคิดของ OpenAI อย่างมีประสิทธิภาพ โดยมุ่งเน้นที่ความสามารถ ข้อจำกัด และแนวทางปฏิบัติที่ดีที่สุดในการนำไปใช้

Felo AI Chat ตอนนี้รองรับการใช้โมเดลการคิด O1 ฟรี ลองใช้ดูได้เลย!

OpenAI-o1-prview-1.pngOpenAI-o1-mini-free-2.png

ทำความเข้าใจโมเดลซีรีส์ OpenAI o1

โมเดลซีรีส์ o1 แตกต่างจากรุ่นก่อนหน้าของโมเดลภาษาของ OpenAI เนื่องจากวิธีการฝึกอบรมที่เป็นเอกลักษณ์ พวกเขาใช้การเรียนรู้แบบเสริมเพื่อเพิ่มความสามารถในการคิด ทำให้สามารถคิดอย่างมีวิจารณญาณก่อนที่จะสร้างการตอบสนอง กระบวนการคิดภายในนี้ช่วยให้โมเดลสามารถสร้างห่วงโซ่ของการคิดที่ยาว ซึ่งเป็นประโยชน์โดยเฉพาะในการจัดการกับปัญหาที่ซับซ้อน

คุณสมบัติหลักของโมเดล OpenAI o1

1. **การคิดที่ก้าวหน้า**: โมเดล o1 มีความโดดเด่นในด้านการคิดเชิงวิทยาศาสตร์ โดยทำผลงานได้อย่างน่าประทับใจในด้านการเขียนโปรแกรมแข่งขันและเกณฑ์มาตรฐานทางวิชาการ ตัวอย่างเช่น พวกเขาอยู่ในเปอร์เซ็นไทล์ที่ 89 บน Codeforces และแสดงให้เห็นถึงความแม่นยำในระดับปริญญาเอกในวิชาต่างๆ เช่น ฟิสิกส์ ชีววิทยา และเคมี

2. **สองรุ่น**: OpenAI มีรุ่นของโมเดล o1 สองรุ่นผ่าน API ของพวกเขา:
 

- **o1-preview**: นี่คือรุ่นแรกที่ออกแบบมาเพื่อจัดการกับปัญหาที่ยากโดยใช้ความรู้ทั่วไปที่กว้างขวาง
 

- **o1-mini**: รุ่นที่เร็วและคุ้มค่ากว่า โดยเฉพาะอย่างยิ่งเหมาะสำหรับการเขียนโค้ด คณิตศาสตร์ และงานวิทยาศาสตร์ที่ไม่ต้องการความรู้ทั่วไปที่กว้างขวาง

3. **หน้าต่างบริบท**: โมเดล o1 มาพร้อมกับหน้าต่างบริบทที่มีขนาดใหญ่ถึง 128,000 โทเค็น ซึ่งช่วยให้สามารถป้อนข้อมูลและการคิดได้อย่างกว้างขวาง อย่างไรก็ตาม สิ่งสำคัญคือต้องจัดการบริบทนี้อย่างมีประสิทธิภาพเพื่อหลีกเลี่ยงการชนขีดจำกัดของโทเค็น

เริ่มต้นใช้งานโมเดล OpenAI o1

ในการเริ่มต้นใช้งานโมเดล o1 นักพัฒนาสามารถเข้าถึงได้ผ่านจุดสิ้นสุดการเติมข้อความของ OpenAI API

คุณพร้อมที่จะยกระดับประสบการณ์การโต้ตอบกับ AI ของคุณแล้วหรือยัง? Felo AI Chat ตอนนี้มีโอกาสให้คุณสำรวจโมเดลการคิด O1 ที่ทันสมัยโดยไม่เสียค่าใช้จ่าย!

ลองใช้โมเดลการคิด o1 ฟรี

20240913-153242.gif

ข้อจำกัดของโมเดล OpenAI o1 Beta

สิ่งสำคัญคือต้องทราบว่าโมเดล o1 ขณะนี้อยู่ในเวอร์ชันเบต้า ซึ่งหมายความว่ามีข้อจำกัดบางประการที่ควรทราบ:

ในระยะเบต้า พารามิเตอร์การเติมข้อความ API หลายรายการยังไม่สามารถใช้ได้ โดยเฉพาะ:

  • Modalities: รองรับเฉพาะข้อความเท่านั้น ไม่รองรับภาพ
  • ประเภทข้อความ: รองรับเฉพาะข้อความจากผู้ใช้และผู้ช่วยเท่านั้น ไม่รองรับข้อความจากระบบ
  • การสตรีม: ไม่รองรับ
  • เครื่องมือ: ไม่รองรับพารามิเตอร์เครื่องมือ การเรียกฟังก์ชัน และรูปแบบการตอบสนอง
  • Logprobs: ไม่รองรับ
  • อื่นๆ: temperature, top_p และ n ถูกตั้งค่าเป็น 1 ขณะที่ presence_penalty และ frequency_penalty ถูกตั้งค่าเป็น 0
  • ผู้ช่วยและชุด: โมเดลเหล่านี้ไม่รองรับใน API ผู้ช่วยหรือ API ชุด

**การจัดการหน้าต่างบริบท**:

ด้วยหน้าต่างบริบทที่มีขนาด 128,000 โทเค็น สิ่งสำคัญคือต้องจัดการพื้นที่นี้อย่างมีประสิทธิภาพ การเติมแต่ละครั้งมีขีดจำกัดโทเค็นสูงสุด ซึ่งรวมถึงทั้งโทเค็นการคิดและโทเค็นการเติมที่มองเห็นได้ ตัวอย่างเช่น:

- **o1-preview**: สูงสุด 32,768 โทเค็น
 

- **o1-mini**: สูงสุด 65,536 โทเค็น

ความเร็วของโมเดล OpenAI o1

เพื่อแสดงให้เห็น เราได้เปรียบเทียบการตอบสนองของ GPT-4o, o1-mini และ o1-preview ต่อคำถามการคิดเกี่ยวกับคำ แม้ว่า GPT-4o จะให้คำตอบที่ไม่ถูกต้อง แต่ทั้ง o1-mini และ o1-preview ตอบถูกต้อง โดย o1-mini ใช้เวลาในการตอบถูกต้องประมาณ 3-5 เท่าที่เร็วกว่า

OpenAI-o1-model-speed.gif

วิธีการเลือกระหว่างโมเดล GPT-4o, O1 Mini และ O1 Preview?

**O1 Preview**: นี่คือรุ่นแรกของโมเดล OpenAI O1 ที่ออกแบบมาเพื่อใช้ความรู้ทั่วไปที่กว้างขวางในการคิดผ่านปัญหาที่ซับซ้อน

**O1 Mini**: รุ่นที่เร็วและราคาไม่แพงของ O1 โดยเฉพาะดีในงานเขียนโค้ด คณิตศาสตร์ และวิทยาศาสตร์ เหมาะสำหรับสถานการณ์ที่ไม่ต้องการความรู้ทั่วไปที่กว้างขวาง

โมเดล O1 มีการปรับปรุงที่สำคัญในด้านการคิด แต่ไม่ได้ตั้งใจที่จะแทนที่ GPT-4o ในทุกกรณีการใช้งาน

สำหรับแอปพลิเคชันที่ต้องการการป้อนข้อมูลภาพ การเรียกฟังก์ชัน หรือ เวลาตอบสนองที่รวดเร็วอย่างสม่ำเสมอ โมเดล GPT-4o และ GPT-4o Mini ยังคงเป็นตัวเลือกที่ดีที่สุด อย่างไรก็ตาม หากคุณกำลังพัฒนาแอปพลิเคชันที่ต้องการการคิดอย่างลึกซึ้งและสามารถรองรับเวลาตอบสนองที่ยาวนาน โมเดล O1 อาจเป็นตัวเลือกที่ยอดเยี่ยม

เคล็ดลับสำหรับการกระตุ้นโมเดล O1 Mini และ O1 Preview อย่างมีประสิทธิภาพ

โมเดล OpenAI o1 ทำงานได้ดีที่สุดด้วยการกระตุ้นที่ชัดเจนและตรงไปตรงมา เทคนิคบางอย่าง เช่น การกระตุ้นแบบน้อยหรือการขอให้โมเดล "คิดทีละขั้นตอน" อาจไม่ช่วยเพิ่มประสิทธิภาพและอาจทำให้แย่ลงได้ นี่คือแนวทางปฏิบัติที่ดีที่สุดที่ควรปฏิบัติตาม:

1. **ทำให้การกระตุ้นเรียบง่ายและตรงไปตรงมา**: โมเดลมีประสิทธิภาพสูงสุดเมื่อได้รับคำแนะนำที่สั้นและชัดเจนโดยไม่ต้องการการอธิบายที่ยาวเหยียด

2. **หลีกเลี่ยงการกระตุ้นแบบเชื่อมโยงความคิด**: เนื่องจากโมเดลเหล่านี้จัดการกับการคิดภายใน จึงไม่มีความจำเป็นต้องกระตุ้นให้พวกเขา "คิดทีละขั้นตอน" หรือ "อธิบายการคิดของคุณ"

3. **ใช้ตัวแบ่งเพื่อความชัดเจน**: ใช้ตัวแบ่งเช่นเครื่องหมายคำพูดสามตัว แท็ก XML หรือชื่อส่วนเพื่อกำหนดส่วนต่างๆ ของข้อมูลนำเข้าอย่างชัดเจน ซึ่งช่วยให้โมเดลตีความแต่ละส่วนได้อย่างถูกต้อง

4. **จำกัดบริบทเพิ่มเติมในการสร้างที่เพิ่มขึ้น (RAG)**: เมื่อจัดเตรียมบริบทหรือเอกสารเพิ่มเติม ให้รวมเฉพาะข้อมูลที่เกี่ยวข้องที่สุดเพื่อหลีกเลี่ยงการทำให้การตอบสนองของโมเดลซับซ้อนเกินไป

ราคาโมเดล o1 Mini และ 1 Preview.

การคำนวณค่าใช้จ่ายสำหรับโมเดล o1 Mini และ 1 Preview แตกต่างจากโมเดลอื่นๆ เนื่องจากรวมค่าใช้จ่ายเพิ่มเติมสำหรับโทเค็นการคิด

การตั้งราคา o1-mini

$3.00 / 1M โทเค็นนำเข้า
 

$12.00 / 1M โทเค็นส่งออก

การตั้งราคา o1-preview

$15.00 / 1M โทเค็นนำเข้า
 

$60.00 / 1M โทเค็นส่งออก

การจัดการค่าใช้จ่ายของโมเดล o1-preview/o1-mini

เพื่อควบคุมค่าใช้จ่ายกับโมเดลซีรีส์ o1 คุณสามารถใช้พารามิเตอร์ `max_completion_tokens` เพื่อกำหนดขีดจำกัดจำนวนโทเค็นทั้งหมดที่โมเดลสร้าง ซึ่งรวมถึงทั้งโทเค็นการคิดและโทเค็นการเติม

ในโมเดลก่อนหน้านี้ พารามิเตอร์ `max_tokens` จะจัดการทั้งจำนวนโทเค็นที่สร้างและจำนวนโทเค็นที่มองเห็นได้สำหรับผู้ใช้ ซึ่งจะต้องตรงกันเสมอ อย่างไรก็ตาม ด้วยซีรีส์ o1 จำนวนโทเค็นทั้งหมดที่สร้างอาจเกินจำนวนโทเค็นที่แสดงให้ผู้ใช้เห็นเนื่องจากโทเค็นการคิดภายใน

เนื่องจากแอปพลิเคชันบางอย่างขึ้นอยู่กับการจับคู่ `max_tokens` กับจำนวนโทเค็นที่ได้รับจาก API ซีรีส์ o1 จึงแนะนำ `max_completion_tokens` เพื่อควบคุมจำนวนโทเค็นทั้งหมดที่ผลิตโดยโมเดลโดยเฉพาะ รวมถึงทั้งโทเค็นการคิดและโทเค็นการเติมที่มองเห็นได้ การเลือกนี้ทำให้แน่ใจว่าแอปพลิเคชันที่มีอยู่ยังคงเข้ากันได้กับโมเดลใหม่ พารามิเตอร์ `max_tokens` ยังคงทำงานได้ตามที่ทำสำหรับโมเดลก่อนหน้านี้ทั้งหมด

บทสรุป

โมเดลซีรีส์ o1 ของ OpenAI แสดงถึงความก้าวหน้าที่สำคัญในด้านปัญญาประดิษฐ์ โดยเฉพาะอย่างยิ่งในความสามารถในการทำงานที่ต้องใช้การคิดอย่างซับซ้อน โดยการทำความเข้าใจความสามารถ ข้อจำกัด และแนวทางปฏิบัติที่ดีที่สุดในการใช้งาน นักพัฒนาสามารถใช้พลังของโมเดลเหล่านี้เพื่อสร้างแอปพลิเคชันที่สร้างสรรค์ เมื่อ OpenAI ยังคงปรับปรุงและขยายซีรีส์ o1 เราสามารถคาดหวังการพัฒนาที่น่าตื่นเต้นยิ่งขึ้นในด้านการคิดที่ขับเคลื่อนด้วย AI ไม่ว่าคุณจะเป็นนักพัฒนาที่มีประสบการณ์หรือเพิ่งเริ่มต้น โมเดล o1 มอบโอกาสที่ไม่เหมือนใครในการสำรวจอนาคตของระบบอัจฉริยะ ขอให้สนุกกับการเขียนโค้ด!

Felo AI Chat มักจะมอบประสบการณ์ฟรีให้คุณกับโมเดล AI ขั้นสูงจากทั่วโลก คลิกที่นี่เพื่อทดลองใช้!