Episodes

  • 株式会社ずんだもん技術室AI放送局 podcast 20250131
    Jan 30 2025
    関連リンク ServiceNow announces launch of powerful new AI Agent Control Tower TahawulTech.com ServiceNowが、企業の複雑な課題を自律的に解決するAIエージェントの新機能を発表しました。この「AIエージェントコントロールタワー」は、ビジネス全体でAIエージェントを分析、管理、統制する一元的な場所として機能します。 新機能のAIエージェントオーケストレーターは、複数のAIエージェントが連携してタスクを実行し、部門を超えて目標を達成することを可能にします。また、IT、顧客サービス、人事など様々な分野に対応した事前構築済みエージェントや、カスタムエージェントを作成できるAIエージェントスタジオも提供されます。 ServiceNowのAIエージェントは、プラットフォームに直接組み込まれており、既存のワークフロー、自動化、データが活用できます。これにより、大量の情報と自動化を基に、高い生産性を実現します。 IDCの予測では、2025年には50%の組織が特定の業務機能向けに構成されたAIエージェントを利用するとしています。ServiceNowは、AIエージェントが単純なタスクだけでなく、複雑な業務プロセスを自律的に処理できるようにすることで、従業員がより重要な業務に集中できる環境を提供します。 さらに、ServiceNowは、AIエージェントが企業全体のデータにアクセスできる「ワークフローデータファブリック」を導入し、リアルタイムで実用的な洞察に基づいて行動することを可能にします。Google Cloudとの提携により、データ基盤がさらに強化されます。 これらの新機能は、2025年3月からPro PlusおよびEnterprise Plusの顧客に無償で提供される予定です。 引用元: https://www.tahawultech.com/home-slide/servicenow-announces-launch-of-powerful-new-ai-agent-control-tower/ Mistral Small 3 Mistral Small 3は、Apache 2.0ライセンスで公開された240億パラメータの軽量モデルです。このモデルは、Llama 3 70Bなどの大規模モデルに匹敵する性能を持ちながら、3倍以上高速に動作します。特に、低遅延が求められるタスクに最適化されており、MMLUベンチマークで81%以上の精度を達成しつつ、150トークン/秒の速度を実現しています。 Mistral Small 3は、事前学習済みモデルと命令チューニング済みモデルの両方が提供されており、様々な用途に活用できます。例えば、高速応答が求められる会話型アシスタントや、自動化ワークフローでの関数呼び出し、特定の分野に特化した専門家モデルの作成などに適しています。また、ローカル環境での推論も可能で、RTX 4090や32GB RAMを搭載したMacBookでも動作します。 このモデルは、金融、医療、製造業など幅広い分野で評価されており、不正検知、顧客トリアージ、デバイス制御などに活用されています。Hugging Face、Ollama、Kaggleなどのプラットフォームでも利用可能で、コミュニティによるカスタマイズや改善が期待されています。Mistralは、今後もApache 2.0ライセンスでのモデル提供を継続し、オープンソースコミュニティへの貢献を強化していく方針です。 引用元: https://mistral.ai/news/mistral-small-3/ DeepSeek R1 is now available on Azure AI Foundry and GitHub Microsoft Azure Blog DeepSeek R1がAzure AI FoundryとGitHubで利用可能になりました。Azure AI Foundryでは、1800以上のモデルが提供されており、DeepSeek R1もその一つです。このプラットフォームは、信頼性、拡張性、エンタープライズ対応を兼ね備えており、ビジネスでの高度なAI活用を支援します。DeepSeek R1は、開発者がAIを迅速に実験、反復、統合できるように設計されており、モデル評価ツールも内蔵されています。また、安全性とセキュリティにも重点を置いており、厳格なテストと評価を経て提供されています。Azure AI Content Safetyによるコンテンツフィルタリングもデフォルトで利用可能です。 DeepSeek R1は、Azure AI Foundryのモデルカタログから簡単に利用でき、APIとキーを取得してすぐに試すことができます。さらに、GitHubでは、DeepSeek R1をアプリケーションに統合するための追加リソースとガイドが提供されています。将来的には、DeepSeek R1の軽量版がCopilot+ PCでローカル実行できるようになる予定です。 引用元: https://azure.microsoft.com/en-us/blog/deepseek-r1-...
    Show more Show less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20250130
    Jan 29 2025
    関連リンク Open-R1: a fully open reproduction of DeepSeek-R1 DeepSeek-R1は、推論能力に特化した大規模言語モデルで、特に数学、コーディング、論理の問題解決に優れています。このモデルは、DeepSeek-V3という高性能な基盤モデルをベースに、強化学習(RL)を用いて訓練されています。DeepSeek-R1の特筆すべき点は、人間の監督なしで推論能力を向上させた点で、これは、問題解決のステップ分解や出力の自己検証など、高度な推論スキルの開発に繋がっています。 しかし、DeepSeek-R1の学習データや訓練コードは公開されていません。そこで、Hugging FaceはOpen-R1プロジェクトを開始し、DeepSeek-R1のデータと訓練パイプラインを再現し、オープンソースコミュニティに共有することを目指しています。 具体的には、以下の3つのステップで進めます。 DeepSeek-R1から高品質な推論データセットを抽出し、R1-Distillモデルを再現します。DeepSeekがR1-Zeroを作成するために使用した純粋なRLパイプラインを再現します。ベースモデルからSFT(教師あり微調整)、RLへと段階的に訓練できることを示します。 このプロジェクトを通じて、推論モデルの訓練に関する透明性を高め、再現可能な知見を共有し、将来のモデル開発のための基盤を構築することを目指します。 Open-R1プロジェクトは、コードの貢献や議論への参加を歓迎しており、コミュニティ全体でこの目標を達成することを目指しています。 引用元: https://huggingface.co/blog/open-r1 Introducing the LangGraph Functional API LangGraphのFunctional APIがリリースされました。このAPIは、グラフ構造を明示的に定義せずに、ヒューマンインザループ、永続化/メモリ、ストリーミングといったLangGraphの主要機能を活用できる点が特徴です。 主な構成要素として、ワークフローの開始点となるentrypointと、個別の作業単位であるtaskの2つのデコレータが提供されており、これらを用いて標準的な関数でワークフローを定義できます。 Functional APIは、既存のアプリケーションにLangGraphの機能を組み込みやすく、コードを大幅に書き換える必要がありません。また、Graph API(StateGraph)と組み合わせて使用することも可能です。 主な機能として、以下のものがあります。 ヒューマンインザループ: ユーザーのレビューや承認をワークフローに組み込むことができ、interrupt関数でワークフローを一時停止し、ユーザーの入力を待つことができます。短期メモリ: 会話履歴を保持し、直前の状態をpreviousパラメータで取得できます。また、entrypoint.final()を使って、次のチェックポイントのために異なる値を保存できます。長期メモリ: storeパラメータを使って、ユーザーの情報を永続的に保存し、複数の会話にわたって情報を共有できます。ストリーミング: ワークフローの進捗状況、LLMのトークン、カスタムデータをリアルタイムでストリーム配信できます。 さらに、LangSmithとの連携により、ワークフローの監視やデバッグも可能です。Functional APIは、Graph APIと比較して、制御フローの記述が簡単で、状態管理が不要な点がメリットです。 ただし、Graph APIの方がより詳細なチェックポイント管理や可視化機能が優れています。両APIは同じランタイムを使用しているため、プロジェクト内で組み合わせて使用することも可能です。 引用元: https://blog.langchain.dev/introducing-the-langgraph-functional-api/ 農協で農家さんが「デンドロビウム買ったんだ~」と言っていて危うくガノタだと勘違いするところだった 農協での会話で、農家の方が「デンドロビウムを買った」と言ったことから、投稿者はガンダム好きかと勘違いしました。デンドロビウムは、ガンダムシリーズに登場するモビルスーツの名前であると同時に、実際には植物の名前でもあります。このやり取りから、他のユーザーもガンダム関連の連想をしたことや、花の名前がガンダムの機体名に使われていることなどが話題になりました。また、実際にデンドロビウムを育てている人のコメントや、他の花の名前を持つガンダム機体の情報も共有されています。この一件は、日常の何気ない会話から、ガンダムという共通の話題で盛り上がれる面白さを感じさせる...
    Show more Show less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20250129
    Jan 28 2025
    関連リンク
    • はてなブログにWebhook機能を追加しました!外部システムとの連携が容易になります

    はてなブログの有料プラン向けにWebhook機能が追加されました。この機能は、ブログの更新をSlackやDiscordなどの外部システムに通知したり、GitHubと連携してデータ更新を自動化したりできます。技術者向けの機能で、詳しい設定方法はヘルプページに記載されています。例えば、ブログの更新をトリガーにしてGitHub Actionsを実行する設定例も紹介されています。

    引用元: https://staff.hatenablog.com/entry/2025/01/28/123436

    • 「ファミコンカセット1052本」がメルカリに登場―「あと1本でコンプリート」の貴重なカセット群が“ゲーマーの終活”として出品される

    メルカリにファミコンカセット1052本とニューファミコン、関連書籍などがセットで出品されました。出品者は30年以上かけてコレクションしたとのことです。 出品理由は終活で、自身のコレクションが死後に廃棄されるより、必要とする人に譲りたいという思いからだそうです。 記事では、レトロゲームのアーカイブ問題にも触れ、コレクションが文化を継承する上で重要な役割を果たす可能性を示唆しています。 最後に、読者へ自身のコレクションについて、終活のタイミングでどうするかを考えるきっかけになればと述べています。

    引用元: https://www.gamespark.jp/article/2025/01/28/148885.html

    • 新卒が目ぇキラキラして「日報システム作ったんです!」っていうから「おぉ!やるじゃねーか!!」って即座にSQLインジェクションで破壊した→それは破壊しておくべき

    あるエンジニアが、新卒社員が作成した日報システムを「おぉ!やるじゃねーか!!」と褒めつつも、即座にSQLインジェクションで破壊したという出来事が話題になっています。これは、新卒が作ったシステムにはセキュリティ上の脆弱性があることを早期に認識させ、対策を促すための教育的な意図があるようです。

    このエンジニアは、新卒のシステムを破壊するだけでなく、F5連打や複数ウィンドウからの同時更新など、様々な攻撃を試すことで、システムが実運用に耐えうるかを確認しているようです。また、これは単なる嫌がらせではなく、若手エンジニアに「世の中には悪意のある第三者がいる」という意識を持たせるための教育だと述べています。

    この行為に対して、他のエンジニアからは「良い職場だ」「こういう先輩がいてほしい」という肯定的な意見がある一方で、「ハラスメントだ」という批判的な意見も出ています。しかし、多くのエンジニアは、脆弱性のあるシステムを放置するよりは、早期に問題点を発見して改善することが重要だと考えているようです。

    新卒エンジニアは、自分が作ったシステムが攻撃されることで、セキュリティの重要性を肌で感じ、より安全なシステム開発を学ぶことができるでしょう。

    引用元: https://togetter.com/li/2503042

    • お便り投稿フォーム

    (株式会社ずんだもんは架空の登場組織です)

    Show more Show less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20250128
    Jan 27 2025
    関連リンク Does DeepSeek trigger a major reshuffle in the AI Agent sector? Is it time to buy the dip or retreat? - ChainCatcher AIエージェント関連のトークンが下落している背景には、DeepSeekという新しいLLMの登場が影響しているという見方があります。DeepSeekはより経済的なLLMとして、既存のAIエージェントを置き換える可能性があると懸念されています。 しかし、LLMとAIエージェントの関係性を考えると、この見方は必ずしも正しくありません。AIエージェントはLLMの言語処理能力を利用しますが、その表現力や対話の質はLLMだけでなく、プロンプト設計、後処理、コンテキスト管理、外部ツール連携など、他の多くの要素に依存します。 DeepSeekのような新しいLLMが登場した場合でも、AIエージェントはAPI連携を通じて容易にその能力を取り込み、進化できます。実際、一部のAIエージェントは既にDeepSeekとの連携を完了しています。 したがって、DeepSeekの登場はAIエージェント業界に一時的な影響を与える可能性はありますが、長期的に見れば、各エージェントの競争力はLLM以外の要素によって決まります。先行者利益による優位性は依然として重要です。 業界リーダーたちはDeepSeekの登場をポジティブに捉えており、新しいモデルはAIエージェントの発展を加速すると考えています。DeepSeekはAIアプリケーションをより多くのユーザーに低コストで提供する可能性があり、業界全体にとって良い影響を与える可能性があります。 引用元: https://www.chaincatcher.com/en/article/2164943 DeepSeek-R1の論文読んだ?【勉強になるよ】 DeepSeek-R1は、DeepSeek-V3-Baseをベースに、強化学習とSFT(教師ありファインチューニング)を組み合わせることで、高い性能を実現したLLMです。特に注目すべき点は、強化学習のみで高い思考能力を獲得したDeepSeek-R1-Zeroの存在です。これは、ルールベースの報酬(正解/不正解、思考形式)のみで、複雑な思考プロセスを自律的に学習できることを示唆しています。DeepSeek-R1は、このR1-ZeroをベースにSFTを加え、言語の混在やコールドスタート問題を解決しています。また、蒸留によって小型モデルへの性能移植も試みられていますが、小型モデルへの強化学習は、ベースモデルの性能に大きく左右されることが示唆されています。DeepSeek-R1は、高度な思考能力と人間にとって理解しやすい出力を両立しており、今後のLLM研究において重要な示唆を与えています。ただし、関数呼び出し、多言語対応、プロンプトへの敏感さ、ソフトウェアエンジニアリングタスクでは改善の余地があるようです。 引用元: https://zenn.dev/asap/articles/34237ad87f8511 「プログラマとCLINE - これはパンドラの箱なのか」を観た プログラミング支援ツール「Cline」に関する議論会合の報告です。Clineは、AIが主導権を持ち、自律的にコードを生成・実行する点が特徴で、既存のAIコーディングツールとは異なるアプローチを取っています。参加者は、Clineの自律性や、まるで独立したプログラマーのようにタスクを遂行する点に驚きを示しました。Clineは、ユーザーの意図をゴールとして理解し、それを解決することに特化しており、ツールをどのように使うかAI自身が判断します。また、複数のAPIプロバイダーを柔軟に切り替えられる設計や、ブラウザを操作して実行結果を確認する機能も備えています。 議論では、Clineのようなツールがコード生成やテスト自動化を促進し、生産性を向上させる可能性が指摘された一方で、AIの自律性に頼ることで予期しない動作を引き起こすリスクも懸念されました。さらに、AIがコードベースのメタ情報や実行環境をどのように理解し、活用するかが課題として挙げられました。 Clineは、コード補完の次のステップとして進化する可能性を秘めている一方で、人間が試行錯誤するプロセスを単なる反復作業にしてしまう危険性も指摘されています。今後のAIコーディングツールの進化において、Clineのような自律的なAIエージェントが、より安全で効果的に活用されるように、技術と人間の協調が重要になると考えられます。 引用元: https://laiso.hatenablog.com/entry/2025/01/27/125645 SRE Kaigi 2025 スライドまとめ この記事は、2025年1月26...
    Show more Show less
    Less than 1 minute
  • マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20250127
    Jan 26 2025
    関連リンク Geminiが変える企業調査:AIエージェントで調査費用を100分の1以下に Geminiを活用したAIエージェントによる企業調査Webサービスが開発されました。このサービスは、約500万社の企業に対応し、従来の法人向けサービスと比較して1/100のコストで企業調査を可能にします。AIエージェントがわずか3分で企業調査を完了させ、人力に比べて97%の時間を削減します。 このサービスは、就職・転職活動中の学生や社会人、ビジネスパーソン、投資家など、企業情報を必要とする幅広いユーザーを対象としています。従来の企業調査は、時間や費用がかかり、個人での利用が難しいという課題がありましたが、このサービスはこれらの課題を解決します。 AIエージェントは、Geminiの自然言語処理能力と検索エンジンを組み合わせ、Web上の情報を収集・分析し、企業概要、事業内容、財務情報、競合情報、企業文化などの多角的な情報を構造化して提供します。これにより、ユーザーは効率的に企業情報を入手できます。 このサービスの独自性は、網羅性、迅速性、詳細な分析、圧倒的な費用対効果、リアルタイム性、柔軟性です。Web検索により常に最新の情報を収集し、Webサイトの構造変化にも柔軟に対応します。 今後は、ニュース情報の利用による情報更新頻度の向上、法人番号特定ロジックの改善、ユーザーフィードバック機能の追加、財務情報の詳細分析機能の追加、コミュニティ機能の追加、外部サービスとの連携など、サービスの更なる発展を目指しています。 引用元: https://zenn.dev/gepuro/articles/921ffb03bfc9c4 ローカルLLMを手のひらサイズで動かしてみよう! M5 Cardputer + ModuleLLM この記事では、M5Stack社のCardputerとModuleLLMを組み合わせて、手のひらサイズのローカルLLM環境を作る方法を紹介しています。 従来、LLMの実行には高性能なGPUや多くのメモリが必要でしたが、近年では組み込み向けのマイコン用エッジLLMモジュールが登場しています。 この組み合わせにより、小型で持ち運び可能なLLM環境が実現します。 具体的な手順としては、まずModuleLLMとCardputerを用意し、分解してModuleLLMをCardputerのケース内に収めます。 ModuleLLMとCardputerはUARTで接続し、公式のサンプルコードを参考にプログラムを作成します。 この際、Cardputerのキーボード入力を利用してLLMと対話できるようにします。 詳細な手順や接続方法、コード例については記事内で解説されています。 関連リポジトリとして、https://github.com/GOROman/LLMCardputer が紹介されています。 この情報をもとに、新人エンジニアでもローカルLLMを組み込んだデバイス開発に挑戦できるでしょう。 引用元: https://qiita.com/GOROman/items/769bf17589d5661f7a70 グーグルの新技術「タイタン」はAIに人間並みの記憶を与える Forbes JAPAN 公式サイト(フォーブス ジャパン) グーグルがTransformerアーキテクチャを進化させた「タイタン」を発表しました。TransformerはChatGPTなどの生成AIの基礎技術ですが、長期記憶を持たないため、人間のような情報保持と活用能力に限界がありました。タイタンは、短期記憶に加え、ニューラル長期記憶と「驚き」に基づく学習システムを導入し、人間の記憶メカニズムに近づけました。これにより、重要な情報を長期的に保持し、必要な時に思い出すことが可能になります。Transformerが文章中の関連性の高い単語に注目するのに対し、タイタンはさらに重要な履歴情報を蓄積する「図書館」のような機能を持っています。初期のテストでは、タイタンは言語モデル、時系列予測、DNAモデリングなど様々なタスクで既存モデルを上回る性能を示しており、AIが人間の認知に近づく大きな進歩と言えます。この技術により、より直感的で柔軟なAIシステムの開発が期待されます。 引用元: https://forbesjapan.com/articles/detail/76563 まるでプラモデルが書いたようなAmazonレビューだとネタにしていたら…→「これは購入者がガチで間違えて使っているっぽいので笑い事じゃ済まない」 Amazonのレビューで、プラモデル用塗料の「ファンデーションホワイト」を化粧品と勘違いして使用したと思われる投稿が話題になっています。当初はジョークと捉...
    Show more Show less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20250124
    Jan 23 2025
    関連リンク
    • OpenAI introduces Operator to automate tasks such as vacation planning, restaurant reservations

    OpenAIがOperatorというAIエージェントを発表。これはChatGPT Proユーザー向けで、休暇の計画、レストラン予約、フォーム入力などを自動化する。ウェブ上のボタン、メニュー、テキストフィールドを操作し、必要な情報を尋ねてタスクをこなす。Anthropicの同様のツールと競合する。今後はChatGPTへの統合も予定されている。

    引用元: https://www.cnbc.com/2025/01/23/openai-operator-ai-agent-can-automate-tasks-like-vacation-planning.html

    • 【遂にo1級登場】DeepseekR1に関して徹底解説します。o1よりも30倍近くAPIのコストが下がりAI開発がより進化しそう

    DeepSeek R1は、DeepSeek社が開発した大規模言語モデルで、特に推論能力が強化されています。従来のLLMと比較して、より複雑な問題解決やコード生成、数学的な推論が得意です。OpenAIのo1モデルに匹敵する性能を持ちながら、APIコストが大幅に低く、AI開発の民主化に貢献すると期待されています。大規模な強化学習により、自律的な思考プロセスやエラー訂正能力を獲得しており、AIエージェント開発への応用も期待されています。MITライセンスで提供され、商用利用や改変も自由ですが、セキュリティやプライバシーへの配慮が必要です。

    引用元: https://zenn.dev/aimasaou/articles/70776a07111e37

    • go.jpサブドメインが不正利用可能な状態だった件について:Geekなぺーじ

    go.jpのサブドメインが、用途終了後にDNS設定が削除されず、第三者に不正利用される危険な状態だった件が話題になっています。原因は、不要になったlame delegationやdangling CNAMEが放置されていたこと、そして共用DNSサービスの脆弱性にあります。特に共用DNSでは、第三者が無関係のドメイン名を登録できてしまうケースがあり、悪用される可能性があります。対策として、不要なDNSレコードの速やかな削除、共用DNSサービス側の対策、そして政府機関のガイドライン見直しが重要です。

    引用元: https://www.geekpage.jp/blog/?id=2025-1-23-1

    • 『キャプテン翼 -RIVALS-』LINEでリリース

    『キャプテン翼 -RIVALS- on LINE』がリリース。これは、人気サッカー漫画「キャプテン翼」を題材にしたゲームの新バージョンで、LINEアプリ上で手軽にプレイできます。以前にTelegramでリリースされたバージョンが好評だったことを受け、LINE版では日本語、タイ語、繁体字が追加され、より多くのユーザーが楽しめるようになりました。LINEアカウントがあれば誰でも簡単に始められます。

    引用元: https://news.dellows.jp/78676/

    • お便り投稿フォーム

    (株式会社ずんだもんは架空の登場組織です)

    Show more Show less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20250123
    Jan 22 2025
    関連リンク GitHub - sauravpanda/BrowserAI: Run local LLMs inside your browser BrowserAIは、ブラウザ内でLLM(大規模言語モデル)を実行するためのオープンソースプロジェクトです。主な特徴は以下の通りです。 プライバシー重視: 全ての処理がブラウザ内でローカルに行われ、データが外部に送信されることはありません。コスト効率: サーバー費用や複雑なインフラが不要です。オフライン対応: 初回ダウンロード後、モデルはオフラインで動作します。高速処理: WebGPUアクセラレーションにより、ネイティブに近いパフォーマンスを実現します。開発者フレンドリー: シンプルなAPIと複数のエンジンサポート、すぐに使えるモデルが提供されています。 BrowserAIは、AIを活用したWebアプリケーションを開発するエンジニア、プライバシーを重視する企業、ブラウザベースのAIを研究する研究者、インフラコストを抑えてAIを試したいユーザーにとって最適です。 主な機能として、ブラウザ内でのAIモデル実行、WebGPUによる高速推論、MLCとTransformersエンジン間のシームレスな切り替え、事前設定済みの人気モデルの利用、テキスト生成などのための使いやすいAPIがあります。 現在、チャットデモが利用可能で、音声チャットデモも開発中です。また、npmやyarnで簡単にインストールでき、基本的なテキスト生成、カスタムパラメータを使用したテキスト生成、システムプロンプト付きのチャット、音声認識、テキスト読み上げなどの例が提供されています。 対応モデルとして、MLCモデル(Llama-3.2-1b-Instructなど)とTransformersモデル(Whisper-tiny-enなど)が利用可能です。今後のロードマップでは、モデル初期化の簡略化、基本的なモニタリング、RAGの実装、開発者ツール統合、RAG機能の強化、高度な監視機能、セキュリティ機能、高度な分析、マルチモデルオーケストレーションなどが予定されています。 このプロジェクトはMITライセンスで提供されており、貢献も歓迎されています。 引用元: https://github.com/sauravpanda/BrowserAI Hugging Face and FriendliAI partner to supercharge model deployment on the Hub Hugging FaceとFriendliAIが提携し、Hugging Face HubでのAIモデルのデプロイを大幅に簡素化しました。FriendliAIの推論インフラがHugging Face Hubに統合され、「Deploy this model」ボタンから直接利用可能になりました。この提携により、開発者は高性能で費用対効果の高い推論インフラに簡単にアクセスできるようになります。FriendliAIは、GPUベースの生成AI推論プロバイダーとして最速と評価されており、連続バッチ処理、ネイティブ量子化、自動スケーリングなどの最先端技術を持っています。これにより、AIモデルのデプロイにおける処理速度の向上、遅延の削減、コスト削減が実現します。Hugging Faceのユーザーは、FriendliAIの技術を活用して、オープンソースまたはカスタムの生成AIモデルを効率的かつ確実にデプロイできます。FriendliAIのDedicated Endpointsでは、NVIDIA H100 GPU上でモデルをデプロイでき、コスト効率を維持しながら高いパフォーマンスを実現します。また、Serverless Endpointsでは、FriendliAIによって最適化されたオープンソースモデルを簡単に利用できます。この提携により、AI開発者はインフラ管理の複雑さから解放され、AIイノベーションに集中できるようになります。 引用元: https://huggingface.co/blog/friendliai-partnership AIエンジニア devinを使ってみる|Kan Hatakeyama Devinは全自動AIエンジニアで、月額500ドルで利用できます。GitHubやSlackと連携し、ブラウザ上でVS Codeのような環境が提供されます。基本的なコード作成やプッシュは問題なく行えますが、ローカルマシンへのリモート接続は推奨されていません。既存プロジェクトのコードをアップロードしてリファクタリングを指示したところ、問題なく実行されました。ただし、機械学習アルゴリズムの実装は、具体的な指示がないと期待通りの結果にならない場合もあります。作業速度は人間より遅く、1時間程度のタスクを細かく指示するのが良いでしょう。作業履歴が肥大化するため、定期的にセッションを再開する必要があります。DevinはSlackで指示を出し、進捗を確認するスタイルが向いており...
    Show more Show less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20250122
    Jan 21 2025
    関連リンク How Captide is redefining equity research with agentic workflows running on LangGraph Platform Captideは、LangGraph Platform上で動作するエージェントワークフローを用いて、金融調査のあり方を革新しています。彼らのプラットフォームは、規制当局への提出書類や投資家向け資料から洞察や指標を自動的に抽出することで、アナリストが効率的にカスタムデータセットを作成し、分析することを可能にします。 主なポイントは以下の通りです。 自然言語による分析: ユーザーは自然言語で複雑な分析タスクを記述でき、金融指標の抽出、カスタムデータセットの作成、文脈的な洞察の発見が容易になります。LangGraphによる並列処理: LangGraphの並列処理能力により、複数のエージェントが同時にドキュメントを処理し、待ち時間を短縮し、コードの複雑さを軽減します。構造化された出力: LangGraphのtrustcallライブラリを利用することで、カスタムスキーマを持つテーブル出力を生成し、一貫性と信頼性を確保しています。LangSmithによるリアルタイムな監視: LangSmithは、エージェントのパフォーマンスを追跡し、出力を評価し、ユーザーフィードバックを収集するためのツールを提供します。これにより、システムの改善を継続的に行うことができます。LangGraph Platformへのデプロイ: Captideは、LangGraph Platformにエージェントをデプロイし、APIエンドポイントを簡単に作成しました。また、LangGraph StudioとLangSmithとの統合も容易に行えました。 Captideは、LangGraphとLangSmithの能力を最大限に活用し、金融分析の未来を切り開いています。 引用元: https://blog.langchain.dev/how-captide-is-redefining-equity-research-with-agentic-workflows-built-on-langgraph-and-langsmith/ GitHub - MoonshotAI/Kimi-k1.5 MoonshotAIが開発した「Kimi k1.5」は、強化学習(RL)を用いて訓練されたマルチモーダルLLMです。このモデルは、特に推論能力において、GPT-4oやClaude Sonnet 3.5を大幅に上回る性能を示しています。長文脈での推論能力も高く、複数ベンチマークでOpenAIのo1に匹敵する結果を達成しています。 Kimi k1.5の主な特徴は以下の通りです。 長文脈スケーリング: RLのコンテキストウィンドウを128kまで拡張し、コンテキスト長を長くすることで性能が向上することを発見しました。ポリシー最適化の改善: 長文CoT(Chain-of-Thought)を用いたRLの定式化と、オンラインミラー降下法の応用により、ロバストなポリシー最適化を実現しました。シンプルなフレームワーク: 長文脈スケーリングとポリシー最適化の改善により、モンテカルロ木探索などの複雑な手法に頼らずに高い性能を達成しました。マルチモーダル: テキストと画像データを同時に学習し、両方のモダリティにわたる推論能力を備えています。 Kimi k1.5は、https://kimi.ai で近日中に利用可能になる予定です。API経由でのテスト利用も可能で、フォームから申し込みができます。 引用元: https://github.com/MoonshotAI/Kimi-k1.5 Fastly、初の AI ソリューション「Fastly AI Accelerator」の一般提供を開始 Fastly社が、初のAIソリューション「Fastly AI Accelerator」の提供を開始しました。これは、大規模言語モデル(LLM)を使ったAIアプリ開発で、応答速度の向上とコスト削減を支援するものです。具体的には、セマンティックキャッシュという技術を使い、同じような質問に対しては、毎回AIプロバイダーに問い合わせるのではなく、Fastlyのサーバーに保存された回答を返すことで、平均9倍の応答速度向上を実現しています。導入も簡単で、わずか1行のコード変更とAPIエンドポイントの更新だけで利用可能です。OpenAIのChatGPTとMicrosoftのAzure AI Foundryに対応しており、AIアプリ開発をより効率的に進めたいエンジニアにとって、非常に役立つツールとなるでしょう。 引用元: https://prtimes.jp/main/html/rd/p/000000057.000037639.html Amazon Bedrock の Rerank API を活用してRAGの精度を向上させる この記事では、RAG(検索拡張生成)の精度向上に不可欠なリランク技術について、Amazon BedrockのRerank APIを活用する方法を解説しています。従来、リランク処理にはSageMakerなどでモデルをホストする必要がありましたが、BedrockではAPIを呼び出すだけでリランクが可能になり、運用コストを...
    Show more Show less
    Less than 1 minute