AIの大規模モデルが活況を呈していますが、すべての企業が独自の大規模モデルの構築に適しているわけではありませんか?

出典:ピンワン

画像ソース: Unbounded AIによって生成

若々しく革新的。 大型模型技術の育成現場では、「マキシマ」選抜大会が本格化。

9月7日に正式発足して以来、2カ月ぶりに開催された第2回百度検索イノベーションコンペティションには、主要大学から数千人の参加者が集まった。

「これは単なるコンペティションではなく、実践的な授業のようなものです。私たちのアイデアや製品を実際の環境でテストし、フィードバックを得て改善方法を学び、AI業界での将来のキャリアのために貴重な経験を積み、AI技術の革新に参加する能力があり、AI革命で重要な役割を果たすことができると信じさせてくれます。 出場者たちは心の底からため息をついた。

Baidu Search Innovation Competitionの本来の目的は、ヒーローの投稿を公開し、優れた才能を引き付け、参加者に自分自身を知ってもらい、業界を理解し、内なる可能性を刺激することです。 そして、彼らは期待に応え、未来と希望を実践的な行動で解釈し、すべてが有望です。

エキサイティングな60日間のゲーム、スプリントの戦いが始まりました

蒸気時代の蒸気機関、電気時代の発電機、情報化時代のコンピューターやインターネットのように、AIもまた、人類をインテリジェント時代へと押し上げる決定的な力になりつつあります。 AI開発の新しい波の下で、大規模言語モデルの新たなトラックは、より多くの可能性と革新的な作品を生み出し、経済および社会の発展に新たな勢いを継続的に注入しています。

AIの新たな波に直面して、ますます多くの産業、企業、大学がAIに投資していますが、業界の発展のための基盤を固めるために、広大な人々の海から優れた人材をどのように見つけるかは、依然として喫緊の課題です。 結局のところ、「Maximaはよく存在するが、Boleはあまり存在しない」のであり、Baidu Innovation Search ContestがやりたいのはAI業界の「Bole」です。

9月7日、第2回百度イノベーション検索コンテストが正式に開始されました。 「シンギュラリティ、ニューサーチ」をテーマに、セマンティック検索、マルチモダリティ、ソフトウェアとハードウェアの最適化など、幅広い技術的方向性をカバーする5つのトラックが設定されました。

発足以来、産業界、企業、大学、その他の分野からの参加者は、60日間の素晴らしいゲームの後、百度検索イノベーションコンペティションの予備段階を完全に通過し、スプリントバトルが始まりました。 コンペティション作品から判断すると、基本スコアをはるかに上回る優れた作品が目立ち、特にコンペティションで1位のスコアがかなり目立ちます。

熾烈な競争環境、私を追いかけるあなたの競争の雰囲気、出場者は熱意と高い士気に満ちています。 主要参加団体は日々、直面した課題や達成した成果について議論し、そのギャップを確認・埋めることで、自らの能力を最大限に発揮しています。

その中で、現在のランキングのデータから、大学のチーム数が企業や個人の開発者の数よりもはるかに多いことがわかることは注目に値します。 これは、現在、大学がAIの分野に深く関心を寄せていることも反映しています。 コンペティションの結果を通じて、大学の学生は、理論的知識の深さだけでなく、技術の実践的能力においても、あらゆる面で強力な能力を持っていることもわかります。

その能力を発揮するために必要なのはステージであり、百度検索イノベーションコンペティションはそのような存在です。 検索AI人材の発掘・育成、業界交流の促進、産業と教育の融合、製品、アルゴリズム、技術応用のイノベーションの促進 参加者にとって、百度検索イノベーションコンペティションの開催は、理論と実践の深い統合をさらに促進しただけでなく、人工知能と検索技術への理解をさらに深めるのに役立ちました。

結局のところ、競争で目立ちたいのであれば、一生懸命勉強することも必要です。 参加者によると、今回の百度検索イノベーションコンペティションでは、AIマルチモーダル処理能力の開発動向と組み合わせて、日々の検索ミームのニーズに基づいてユーザー調査と市場分析を行い、対話の形でファジィ検索ミームの解決策を提案し、Webサイトのプロトタイプを描いたとのことです。 この革新的な結果により、彼らは熾烈な予選ラウンドで際立っていました。

「この結果は、私たちにとって驚きであると同時に励みでもあります。 「私たちのプロジェクトにはまだ改善の余地がありますが、この成功は、学生である私たちもAI技術の革新に参加する能力を持っていることに気づきました。」 このコンペティションでは、私たちのような多くの大学チームが出現しており、大学生の探求心と革新の精神に対するBaiduの高い認識と奨励を示しており、また、大学生がAI革命においてますます重要な役割を担っていることを示しています。 "

その中にいるという感覚、課題もありますが、それはチャンスでもあります

理論と実践を組み合わせることで、技術と応用のレベルから始めて、さまざまな分野の参加者がすでにより野心的な目標を設定し、激しい競争の中でより明確な開発計画を構築しています。

これは、Baidu Search Innovation Competition の個人的な経験から一歩一歩進んでいます。 「経験の面では、このコンペティションは当社の総合的な製品設計能力が試されました。AI技術の限界を理解するだけでなく、ユーザーのニーズを綿密に調査し、革新的なソリューションでそれらを満たし、これらのソリューションがスムーズに動作し、プロモーション後に一定数のオンラインユーザーを引き付けられるようにして、製品の実用性と市場での受容性を検証する必要がありました。 また、別の参加者からは「単なるコンペティションではなく、実践的な授業のようなもので、アイデアや製品を実際の環境でテストし、フィードバックを得て改善方法を学び、AI業界での将来のキャリアのための貴重な経験を積むことができます」と認めています。 "

もちろん、コンペティションで得た経験はストーリーの一部に過ぎず、参加者は昼夜を問わず分析・研究を行うことで、生成AIや大規模モデルアプリケーションの現状や問題点を真に認識しています。

「私たちの投稿と組み合わせると、ジェネレーティブテクノロジーは、ユーザーが曖昧な印象から複数の会話で明確な検索目標に移行できるようになり、検索語を何度も推測する必要がなくなり、検索したいものを正確に見つけることができ、検索エンジンでさえ、質問と回答のコンテキストに基づいてクリエイティブなコンテンツを提供できることがわかります。 これにより、「検索」はもはや単なる情報の検索と照合の問題ではなく、新しい情報、新しい知識、さらには新しいアイデアを発見するための発見の旅になります。 「しかし、ジェネレーティブモデル技術自体はまだ開発の初期段階にあることは否定できないので、現在のアルゴリズムも特定のシナリオやタスクに基づいて設計されています」 例えば、ジェネレーティブモデルの現在の可能性は、高い適応性とクリエイティブな表現力を持ち、複数の業種にわたってプロフェッショナルで流動的なQ&A体験とクリエイティブな支援を微調整して提供できることにあります。 しかし、モデルの学習に必要な大量のデータを取得して処理することは技術的にまだ難しく、モデルが生成するコンテンツには著作権やプライバシー、誤解を招く情報を伝えるリスクが伴う可能性があります。 "

この現実を踏まえて、応募者は「検索結果の正確性と信頼性を確保しながら、モデルで生成されたコンテンツを専門家が修正し、公的に認められた情報とどのようにリンクして検索体験を最適化するかが主な課題であり、現在の検索分野における生成技術の応用の新たな機会である」と述べています。 まだまだ続けないといけない。 "

実際、技術の発展に伴い、一部の企業はすでに独自の利点を利用して、現在の生成AIアプリケーションが直面する一連の問題の解決を推進しています。 たとえば、上記の出場者が言及した問題については、NVIDIAはすでに対策を講じています。 2007 年、NVIDIA は CUDA ユニバーサル パラレル コンピューティング プログラミング アーキテクチャを発表し、グラフィックス、HPC、AI、データ サイエンスなどの幅広いコンピューティング アクセラレーション ライブラリを備えた CUDA プラットフォーム エコシステムになりました。 GPUはCPUよりも高い計算能力と高いメモリ帯域幅を持っており、CUDAを使用してこれらの機能を最大限に活用して計算タスクを高速化できます。

市場の持続性に基づいて、AIエコシステムは徐々に構築されています

イノベーションには常に問題が伴い、テクノロジーは進歩しており、テクノロジー企業も探求を続けています。

LLM(大規模言語モデル)が台頭する前は、NVIDIAのCUDAプラットフォームは、検索結果の精度と信頼性を確保しながら、GPUでの検索エクスペリエンスを最適化することができました。 大規模モデルの実行コストを削減するために、NVIDIA は今年 10 月 19 日に印象的な大規模モデル推論オプティマイザー TensorRT-LLM を発売し、別の重要な一歩を踏み出しました。

TensorRT-LLM は、大規模言語モデルの推論のコンパイルと最適化に特化した包括的なライブラリであり、これらの最適化機能をすべて組み合わせながら、新しいモデルを定義および構築するための直感的な Python API を提供します。 TensorRT-LLM オープンソース ライブラリは、NVIDIA GPU 上の最新の大規模言語モデルの推論パフォーマンスを高速化し、大規模言語モデルの推論を最適化するための NVIDIA NeMo のバックボーンです。 NeMo Frameworkは、ジェネレーティブAIアプリケーションを構築、カスタマイズ、本番環境にデプロイするためのエンドツーエンドのフレームワークであり、TensorRT-LLMやNVIDIA TritonなどのジェネレーティブAIを展開するための完全なコンテナを提供します。

現在、TensorRT-LLM オープンソース ライブラリは、/NVIDIA/TensorRT-LLM GitHub リポジトリで NVIDIA NeMo フレームワークの一部として無料で入手できます。 TensorRT-LLMは、ネイティブWindowsシステム用のベータ版としても利用できるようになりました。 アプリ開発者や AI 愛好家は、NVIDIA RTX と NVIDIA GeForce RTX GPU を搭載した PC やワークステーションで、大規模な言語モデルをネイティブに高速化できるようになりました。

NVIDIAは常に市場と緊密に連絡を取り合い、市場のすべてのニーズと変化に常に注意を払い、市場の需要に応じて製品と戦略的調整を行ってきたことがわかります。 CUDAとTensorRT-LLMはどちらも顕著な例です。

その技術的優位性を活用してAIを継続的に推進し、コンピューティングの革新と業界の発展を加速し、開発者がさまざまなアルゴリズムの課題を解決できるように支援することは、NVIDIAの長期的な探求の中核です。 近年、NVIDIA は国内外の多くの大手モデル企業やチームと緊密に連携し、大規模言語モデルの推論を高速化および最適化してきました。

将来に目を向けると、AIに情熱を注ぐより多くの企業やチームがこの技術探求に参加し、技術開発に知識と革新的な思考を注入し続け、既存の技術ではまだ解決されていないより多くの公共ニーズを探求し、満たすことで、よりスマートで便利なAIの未来が到来するに違いありません。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン