searchresults
2026-04-30
08:02

โบรกเกอร์บางรายเปิดให้บริการซื้อขายคริปโทเคอเรนซี CFD โดยครอบคลุมเหรียญหลัก 6 ประเภท

มีรายงานว่าโบรกเกอร์ CFD บางแห่งได้เปิดให้บริการการเทรดคริปโทเคอรेंसी CFD เมื่อไม่นานมานี้ โดยครอบคลุมเหรียญหลัก 6 รายการ ได้แก่ BTC, ETH, XRP, Solana, Dogecoin และ Cardano โดยสัญญา CFD สำหรับ BTC และ ETH รองรับเลเวอเรจสูงสุด 1:500 ส่วนอีก 4 เหรียญที่เหลือให้เลเวอเรจสูงสุด 1:50 บริการดังกล่าวรองรับประเภทบัญชี Pro, ProCent และ ECN พร้อมตารางการเทรดตลอด 7 วัน ผู้จัดการฝ่ายปฏิบัติการประจำภูมิภาคของโบรกเกอร์กล่าวว่า: “คริปโทเคอรेंसीได้กลายเป็นส่วนสำคัญของวงการการเทรดสมัยใหม่ โดยลูกค้าจำนวนมากต้องการรับความเสี่ยงด้านคริปโทเคอรेंसीนอกเหนือจากตลาดอย่าง FX, โลหะมีค่า และดัชนี ด้วยการเพิ่มคริปโทเคอรेंसी CFD เข้าไปในสภาพแวดล้อมการเทรด เราจึงมอบวิธีที่คุ้นเคยให้ลูกค้าสามารถเทรดความผันผวนของราคาสินทรัพย์ดิจิทัลได้ โดยไม่ต้องบริหารจัดการวอลเล็ตดิจิทัลหรือบัญชีในเว็บเทรด”
liveNews.More
BTC0.24%
ETH0.64%
XRP-0.14%
SOL-0.1%
13:41

Alibaba Cloud ลดราคาสำหรับแคชโดยนัยของ DeepSeek-V4-Pro เหลือ 1 หยวนต่อหนึ่งล้านโทเค็นในวันที่ 29 เมษายน

ตามที่ Alibaba Cloud ระบุ แพลตฟอร์ม Bailian ของบริษัทจะลดราคาสำหรับแคชโดยนัยของโมเดล DeepSeek-V4-Pro (Implicit Cache) เหลือ 1 หยวนต่อหนึ่งล้านโทเค็น มีผลตั้งแต่วันที่ 29 เมษายน 2026 เวลา 23:59:59 ตามเวลาปักกิ่ง แคชโดยนัยจะมีผลเฉพาะเมื่อคำขอเข้าชนแคช โทเค็นอินพุตที่อยู่ในแคชจะถูกเรียกเก็บในอัตรา cached_token ในขณะที่โทเค็นอินพุตที่ไม่ได้อยู่ในแคชจะถูกคิดในอัตรา standard input_token
liveNews.More
06:31

DeepSeek ลดราคาของ V4-Pro ลง 75%, ตัดค่าใช้จ่ายแคชของ API เหลือเพียงหนึ่งในสิบ

ประกาศ Gate News วันที่ 27 เมษายน — DeepSeek ประกาศส่วนลด 75% สำหรับโมเดลใหม่ V4-Pro ของตนสำหรับนักพัฒนา และลดราคาการเข้าถึงแคชอินพุตทั่วทั้งไลน์อัป API เหลือเพียงหนึ่งในสิบของระดับเดิม โมเดล V4 ซึ่งเปิดตัวเมื่อวันที่ 25 เมษายนในเวอร์ชัน Pro และ Flash ได้รับการปรับให้เหมาะสมสำหรับโปรเซสเซอร์ Ascend ของ Huawei
liveNews.More
05:17

GPT-5.5 กลับมาล้ำหน้าในการเขียนโค้ด แต่ OpenAI เปลี่ยนเกณฑ์มาตรฐานหลังแพ้ Opus 4.7

ข่าวประจำเกต 27 เมษายน — SemiAnalysis บริษัทวิเคราะห์เซมิคอนดักเตอร์และ AI ได้เผยแพร่มาตรฐานเปรียบเทียบเชิงเปรียบเทียบของผู้ช่วยการเขียนโค้ด รวมถึง GPT-5.5, Claude Opus 4.7 และ DeepSeek V4 ผลค้นหาที่สำคัญ: GPT-5.5 แสดงถึงการกลับสู่ขอบล้ำในการพัฒนาโมเดลการเขียนโค้ดของ OpenAI เป็นครั้งแรกในรอบหกเดือน โดยวิศวกรของ SemiAnalysis ตอนนี้สลับไปมาระหว่าง Codex และ Claude Code หลังจากก่อนหน้านี้พึ่งพา Claude เกือบทั้งหมด GPT-5.5 อ้างอิงจากแนวทางการพรีเทรนแบบใหม่ที่มีชื่อรหัสว่า "Spud" และถือเป็นการขยายขนาดการพรีเทรนครั้งแรกของ OpenAI นับตั้งแต่ GPT-4.5. ในการทดสอบเชิงปฏิบัติที่ชัดเจน ได้แยกบทบาทออกมาอย่างชัดเจน Claude จัดการการวางแผนโครงการใหม่และการตั้งค่าเริ่มต้น ในขณะที่ Codex โดดเด่นสำหรับการแก้บั๊กที่ต้องใช้การให้เหตุผลหนักๆ Codex แสดงความเข้าใจโครงสร้างข้อมูลและการให้เหตุผลเชิงตรรกะที่แข็งแกร่งกว่า แต่กลับมีปัญหาในการคาดเดาความตั้งใจของผู้ใช้ที่ไม่ชัดเจน ในงานที่คล้ายกันบนแดชบอร์ดเดียว Claude คัดลอกเค้าโครงหน้าจากตัวอย่างได้โดยอัตโนมัติแต่ได้สร้างข้อมูลจำนวนมากขึ้นมา ในขณะที่ Codex ข้ามเรื่องเค้าโครงแต่ให้ข้อมูลที่แม่นยำกว่ามาก การวิเคราะห์เผยรายละเอียดเกี่ยวกับการปรับแต่งเกณฑ์มาตรฐาน: โพสต์บล็อกของ OpenAI ในเดือนกุมภาพันธ์ได้เรียกร้องให้วงการนำ SWE-bench Pro มาเป็นมาตรฐานใหม่สำหรับการประเมินเกณฑ์การเขียนโค้ด อย่างไรก็ตาม การประกาศของ GPT-5.5 ได้เปลี่ยนไปใช้เกณฑ์มาตรฐานใหม่ที่ชื่อ "Expert-SWE" เหตุผล—ซ่อนอยู่ในส่วนปลีกย่อย—คือ GPT-5.5 ถูก Opus 4.7 แซงบน SWE-bench Pro และทำผลงานได้ต่ำกว่ามากเมื่อเทียบกับ Mythos ที่ยังไม่เผยแพร่ของ Anthropic 77.8%. สำหรับ Opus 4.7 Anthropic เผยแพร่การวิเคราะห์สรุปหลังเหตุการณ์ (postmortem) หนึ่งสัปดาห์หลังการเปิดตัว โดยยอมรับบั๊กสามจุดใน Claude Code ที่ยังคงอยู่ต่อเนื่องเป็นเวลาหลายสัปดาห์ตั้งแต่เดือนมีนาคมถึงเมษายน ส่งผลกระทบต่อผู้ใช้งานเกือบทั้งหมด วิศวกรหลายคนเคยรายงานว่าประสิทธิภาพลดลงในเวอร์ชัน 4.6 มาก่อน แต่ถูกมองว่าเป็นข้อสังเกตเชิงอัตวิสัย นอกจากนี้ โทเคไนเซอร์ใหม่ของ Opus 4.7 เพิ่มการใช้งานโทเคนได้สูงถึง 35% ซึ่ง Anthropic ยอมรับอย่างตรงไปตรงมา—ซึ่งเท่ากับเป็นการขึ้นราคาที่ซ่อนอยู่โดยปริยาย DeepSeek V4 ถูกประเมินว่า "ตามทันความก้าวหน้าในระดับแนวหน้าแต่ไม่ได้เป็นผู้นำ" โดยวางตำแหน่งตัวเองเป็นทางเลือกที่มีต้นทุนต่ำที่สุดในบรรดาโมเดลที่ปิดซอร์ส การวิเคราะห์ยังระบุว่า "Claude ยังคงทำผลงานได้ดีกว่า DeepSeek V4 Pro ในงานเขียนภาษาจีนที่มีความยากสูง" โดยแสดงความคิดเห็นว่า "Claude ชนะโมเดลภาษาจีนในภาษาเดียวกับที่มันใช้" บทความนำเสนอแนวคิดสำคัญว่า ควรประเมินราคาของโมเดลด้วย "ต้นทุนต่อหนึ่งงาน" แทนที่จะเป็น "ต้นทุนต่อหนึ่งโทเคน" ราคาของ GPT-5.5 เป็นสองเท่าของ GPT-5.4 input $5, output per million tokens แต่ทำงานเดียวกันได้โดยใช้โทเคนน้อยกว่า ดังนั้นต้นทุนที่แท้จริงจึงไม่ได้จำเป็นต้องสูงขึ้น ข้อมูลเบื้องต้นจาก SemiAnalysis แสดงว่าอัตราส่วนอินพุตต่อเอาต์พุตของ Codex อยู่ที่ 80:1 ต่ำกว่าของ Claude Code ที่ 100:1.
liveNews.More
15:02

DeepSeek ตัดราคาค่าแคชอินพุตเหลือ 1/10 ของราคาตอนเปิดตัว; V4-Pro เหลือ 0.025 หยวนต่อหนึ่งล้านโทเค็น

ข้อความจาก Gate News วันที่ 26 เมษายน — DeepSeek ได้ปรับลดราคาค่าแคชอินพุตในกลุ่มโมเดลทั้งหมดลงเหลือหนึ่งในสิบของราคาตอนเปิดตัว มีผลทันที โมเดล V4-Pro มีให้ในส่วนลด 2.5x แบบจำกัดเวลา โดยแคมเปญจะดำเนินไปจนถึงวันที่ 5 พฤษภาคม 2026 เวลา 11:59 PM UTC+8. หลังจากการลดราคาทั้งสองรายการ DeepSeek V4-Pro ราคาต่อครั้งที่แคชอินพุต hit ลดลงเหลือ 0.025 หยวนต่อหนึ่งล้านโทเค็น ตามข้อมูลจาก Beating การปรับลดราคา ถือเป็นการลดลงอย่างมีนัยสำคัญจากราคาดั้งเดิมของโมเดล
liveNews.More
01:29
1

Alibaba Cloud เปิดตัว Qwen-Image-2.0-Pro พร้อมระบบรวมการสร้างภาพจากข้อความและการแก้ไข รองรับการแสดงผลข้อความหลายภาษา

ข้อความจาก Gate News ประจำวันที่ 26 เมษายน — แพลตฟอร์ม Alibaba Cloud Bailian ได้เปิดตัว Qwen-Image-2.0-Pro ซึ่งเป็นเวอร์ชันที่ครบฟีเจอร์ของตระกูล Qwen-Image-2.0 โดยรวมการสร้างภาพจากข้อความและการแก้ไขภาพไว้ในโมเดลเดียว ผู้ใช้สามารถปรับเปลี่ยนวัตถุ ข้อความ และสไตล์ได้โดยตรงผ่านคำสั่งภาษาธรรมชาติ
liveNews.More
00:25
1

DeepSeek V4-Pro API ลดราคา 75% ถึงวันที่ 5 พฤษภาคม ราคาขาออกลดลงเหลือ $0.87 ต่อหนึ่งล้านโทเค็น

ข้อความจาก Gate News วันที่ 26 เมษายน — DeepSeek ประกาศส่วนลด 75% แบบจำกัดเวลาสำหรับราคาบริการ V4-Pro API มีผลถึงวันที่ 5 พฤษภาคม เวลา 15:59 UTC หลังจากส่วนลด ราคาต่อหนึ่งล้านโทเค็นคือ: อินพุตแคชที่เข้า $0.03625
liveNews.More
12:31

DeepSeek เปิดตัวโมเดล V4-Pro และ V4-Flash ในต้นทุนที่ต่ำกว่า GPT-5.5 Pro ของ OpenAI ถึง 98%

ข่าวประตูเมือง ประจำวันที่ 25 เมษายน — DeepSeek ปล่อยตัวอย่าง (preview) ของ V4-Pro และ V4-Flash เมื่อวันที่ 24 เมษายน ทั้งสองเป็นโมเดลน้ำหนักเปิด (open-weight) ที่มีหน้าต่างคอนเท็กซ์ 1 ล้านโทเค็น V4-Pro มีพารามิเตอร์ทั้งหมด 1.6 ล้านล้านตัว แต่จะเปิดใช้งานได้เพียง 49 พันล้านต่อรอบการอินเฟอเรนซ์ผ่านสถาปัตยกรรมแบบ Mixture-of-Experts
liveNews.More
05:33

Baidu Intelligent Cloud เปิดตัว API ของ DeepSeek-V4 บนแพลตฟอร์ม Qianfan

ข่าว Gate ประจำวันที่ 25 เมษายน — Baidu Intelligent Cloud ได้นำ DeepSeek-V4 เข้าสู่แพลตฟอร์ม Qianfan โดยให้การเข้าถึงผ่าน API สำหรับโมเดล AI ที่เปิดตัวใหม่ DeepSeek-V4 มีให้เลือก 2 เวอร์ชัน—DeepSeek-V4-Pro และ DeepSeek-V4-Flash—และมาพร้อมหน้าต่างบริบทแบบขยายความยาวหนึ่งล้านโทเค็น องค์กรและนักพัฒนา
liveNews.More
14:42

DeepSeek V4 เปิดตัวพร้อมหน้าต่างบริบท 1M; ชิป Huawei Ascend และ Cambricon ทำได้เต็มรูปแบบ

ข้อความข่าว Gate ประจำวันที่ 24 เมษายน — DeepSeek V4-Pro และ DeepSeek V4-Flash ได้รับการปล่อยอย่างเป็นทางการและเปิดซอร์สเมื่อวันที่ 24 เมษายน โดยมีความยาวการประมวลผลบริบทเพิ่มขึ้นอย่างมีนัยสำคัญจาก 128K เป็น 1M ซึ่งคิดเป็นการเพิ่มความจุเกือบ 10 เท่า โดย Huawei Computing ประกาศว่า ผลิตภัณฑ์ซูเปอร์โหนด Ascend ของบริษัท
liveNews.More