株式会社ずんだもん技術室AI放送局

Written by: 株式会社ずんだもん技術室AI放送局
  • Summary

  • AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。
    Show More Show Less
Episodes
  • 株式会社ずんだもん技術室AI放送局 podcast 20241125
    Nov 24 2024
    関連リンク Gemini AI asst suggesting answers to my emails - Hell NO! Gmailユーザーが、メール作成時にGemini AIによる回答候補が表示される機能に不満を訴えているGoogleヘルプフォーラムの投稿です。ユーザーは、この機能が邪魔で自分の考えでメールを書きたいと考えており、機能の無効化方法を質問しています。AIによる自動化が思考停止を招くという懸念も表明されています。 現状では、この機能を無効化する具体的な方法は提示されていません。 投稿は比較的新しいものですが、Googleからの回答はまだありません。 この投稿は、AIアシスタントの過剰な介入に対するユーザーの抵抗感を示す事例として参考になります。 日本のエンジニアにとって、この事例は、ユーザーエクスペリエンス(UX)設計や、AI技術導入におけるユーザーの感情への配慮の重要性を再認識させるものです。 AIによる自動化の利便性と、ユーザーの自主性や創造性を尊重することのバランスが、今後のシステム開発において課題となるでしょう。 引用元: https://support.google.com/mail/thread/309622575/gemini-ai-asst-suggesting-answers-to-my-emails-hell-no%3Fhl%3Den [アップデート] AWS Step Functions で変数が使えるようになりました DevelopersIO AWS Step Functionsに、変数の使用とJSONataのサポートが追加されました。これにより、ステートマシンにおけるデータの受け渡し処理が大幅に簡素化されます。 以前は、Step Functionsでステート間の値の受け渡しは、各ステップで結果を明示的に次のステップに渡す必要があり、複雑で非効率的な作業でした。しかし、今回のアップデートで変数を定義し、ステート間で値を容易に共有できるようになりました。例えば、あるステップで計算した結果を変数に格納し、後続のステップでその変数を参照することで、データの受け渡しを簡略化できます。 具体的には、Pass、Task、Map、Parallel、Choice、Wait ステートで変数が利用可能です。変数はJSON形式で指定し、マネジメントコンソールで変数タブから設定できます。一度の変数割り当ての最大サイズは256 KiB、ステートマシン全体で保存される変数の合計サイズは10 MiBに制限されているため、注意が必要です。 また、変数のスコープにも注意が必要です。ParallelやMapステート内で定義した変数は、その内部でのみ参照可能です。上位のステップで定義された変数は下位のステップから参照できますが、下位ステップで定義された変数は上位ステップからは参照できません。ParallelやMapステート内で定義した変数を他のステップで使用したい場合は、明示的に出力として渡す必要があります。 さらに、JSONataというクエリ言語がサポートされました。これにより、ステートマシンの設定がより柔軟で直感的になります。JSONPathも引き続き利用可能です。 今回のアップデートにより、Step Functionsのワークフロー設計が大幅に簡略化され、より効率的で分かりやすいステートマシンの構築が可能になります。変数のサイズとスコープに注意しながら、積極的に活用することで開発効率の向上に繋げましょう。 引用元: https://dev.classmethod.jp/articles/step-functions-variables/ ORMなんていらない?!生SQLクエリ開発を超絶楽にするVSCode拡張を作った [TS+Rust+WASM] この記事は、TypeScriptとRustで記述された、VSCode拡張機能「sqlsurge」の紹介です。sqlsurgeは、PrismaやSQLxといったORMを使用せず、生SQLクエリを記述する際に、SQLの構文補完やエラーチェックといったLSP(Language Server Protocol)機能を提供します。 主な機能は、TypeScriptとRustのコード内にある生SQLクエリを検出し、VSCodeのVirtual Document機能とRequest Forwardingを用いて、Go製のSQL Language Serverである「sqls」と連携することで、SQLクエリに対する補完機能を実現する点です。 TypeScriptではPrisma、RustではSQLxをサポートしており、Prismaを使用している場合はSQLのシンタックスハイライトも有効になります。 sqlsurgeは、TypeScript/RustのAST(抽象構文木)を解析して生SQLクエリを特定します。Rustの部分はWASM(WebAssembly)に変換され、VSCode上で動作します。開発にはwasm-packを使用しており、CIにはGitHub Actionsを用いてUbuntuとmacOS上でのテストを実施しています。 現状ではPrismaとSQLxのサポートが...
    Show More Show Less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20241122
    Nov 21 2024
    関連リンク
    • Introducing the Open Leaderboard for Japanese LLMs!

    LLM(大規模言語モデル)は英語での能力が向上していますが、他の言語での性能はまだ未知数です。そこで、日本語のLLMの性能を評価する「Open Japanese LLM Leaderboard」が発表されました。これは、LLM-jpプロジェクトとHugging Faceのパートナーシップにより開発されたもので、20以上のデータセットから構成され、日本語LLMのメカニズムを理解することを目的としています。

    日本語は、漢字、ひらがな、カタカナの3種類の文字を組み合わせた複雑な書き言葉体系を持ち、英語や中国語、オランダ語、ポルトガル語、フランス語、ドイツ語、アラビア語などからの外来語や、独特の絵文字や顔文字も存在します。さらに、日本語は単語間のスペースがなく、トークン化の難易度が高い言語です。

    Open Japanese LLM Leaderboardは、日本語LLMの評価に特化したllm-jp-evalライブラリを使用し、16のタスクでLLMを評価します。これらのタスクには、自然言語推論、機械翻訳、要約、質問応答などの古典的なものから、コード生成、数学的推論、人間試験などの現代的なものまで含まれます。データセットは、LLM-jpの評価チームが言語学者、専門家、人間アノテーターと協力して作成したものや、日本語に自動翻訳され、日本語の特徴に合わせて調整されたものなどがあります。

    このリーダーシップでは、Jamp、JEMHopQA、jcommonsenseqa、chABSA、mbpp-ja、mawps、JMMLU、XL-Sumなどのデータセットを使用しています。Jampは、NLIのための日本語の時間的推論ベンチマークであり、JEMHopQAは、内部推論を評価できる日本語の多段QAデータセットです。jcommonsenseqaは、常識的推論能力を評価する多肢選択式の質問回答データセットです。chABSAは、金融レポートの感情分析データセットで、2016年の日本の上場企業の財務報告書に基づいています。mbpp-jaは、Pythonの基本的な問題を日本語に翻訳したプログラミングデータセットです。mawpsは、数学的な問題を解く能力を評価するデータセットで、CoT推論を使用しています。JMMLUは、高校レベルのテストの知識を評価する4択の質問回答データセットです。XL-Sumは、BBCニュースの記事の日本語翻訳に基づく要約データセットです。

    このリーダーシップは、Hugging FaceのOpen LLM Leaderboardに触発され、HuggingFaceのInference endpoints、llm-jp-evalライブラリ、vLLMエンジン、mdxコンピューティングプラットフォームを使用してモデルを評価します。

    日本語LLMガイド「Awesome Japanese LLM」によると、MetaのLLamaアーキテクチャが多くの日本のAIラボで好まれているようです。しかし、MistralやQwenなどの他のアーキテクチャも、日本語LLMリーダーシップで高いスコアを獲得しています。オープンソースの日本語LLMは、クローズドソースのLLMとの性能差を縮めており、特にllm-jp-3-13b-instructはクローズドソースのモデルと同等の性能を示しています。

    今後の方向性として、llm-jp-evalツールの開発に合わせて、リーダーシップも進化していく予定です。例えば、JHumanEvalやMMLUなどの新しいデータセットの追加、CoTプロンプトを使用した評価、NLIタスクでのアウト・オブ・チョイス率の測定などが挙げられます。

    Open Japanese LLM Leaderboardは、LLM-jpコンソーシアムによって構築され、国立情報学研究所(NII)とmdxプログラムの支援を受けています。このプロジェクトには、東京大学の宮尾祐介教授、Han Namgi氏、Hugging Faceのクレモンティーヌ・フーリエ氏、林俊宏氏が参加しています。

    引用元: https://huggingface.co/blog/leaderboard-japanese

    • お便り投稿フォーム

    (株式会社ずんだもんは架空の登場組織です)

    Show More Show Less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20241121
    Nov 20 2024
    関連リンク 工数6割削減! 生成AIとOCRを組み合わせ、店舗毎に形式が異なるレストランメニューを読み取らせてみた 食べログのメニューデータ入稿業務において、生成AIとOCRを組み合わせたツールを開発し、作業工数を6割削減することに成功しました。従来の手作業によるメニュー情報の入力は、時間と労力を要するものでした。本プロジェクトでは、まずOCR技術を用いてメニュー画像内の文字情報を座標情報と共に取得。その後、生成AIにOCR結果と画像データを渡し、料理名と価格を抽出し、入力フォームへ自動入力するシステムを構築しました。 生成AI単体では精度の問題がありましたが、OCRによる位置情報との連携により、生成AIの出力結果が画像上のどの部分に対応するかを特定できるようになり、精度の向上と確認作業の効率化を実現しました。ツールは、AIによる高速入力と、人による確認・修正作業を組み合わせた設計となっており、AIと人間の強みを活かす仕組みとなっています。 UIについても徹底的に作り込み、ハイライト機能、消し込み機能、入力支援機能などを搭載することで、確認・修正作業を大幅に効率化しました。 開発においては、常に最新技術の動向をウォッチし、GPT-4やClaude 3.5 Sonnetといった生成AIモデルの特性を踏まえた柔軟な方針転換が成功の鍵となりました。 特に、当初はOCRのみを利用する方針でしたが、GPT-4の登場を機に、画像データとOCR結果を組み合わせることで、精度と効率性が大幅に向上しました。また、完全自動化を目指さず、人による確認作業を残すことで、精度の高いデータ入力を実現しました。 本プロジェクトの成功要因は、生成AIだけでなくOCR技術など幅広い技術を組み合わせたこと、ユーザビリティを重視したUIの徹底的な作り込み、そして最新技術への対応と柔軟な方針転換にあります。 この経験から、生成AIの業務活用においては、フルスタックエンジニアのような幅広い技術を持つ人材が不可欠であることが示唆されました。 彼らは、生成AIの特性を理解した上で、様々な技術を駆使し、最適なソリューションを生み出すことができます。 引用元: https://tech-blog.tabelog.com/entry/ai-menu-ocr Agent Protocol: Interoperability for LLM agents LangChainは、様々なエージェントを連携させるマルチエージェントフレームワークLangGraphを発表しました。異なるフレームワークのエージェント間の相互運用性を高めるため、Agent Protocolという共通インターフェースをオープンソース化しました。これは、LLMエージェントを本番環境で運用するために必要な、フレームワークに依存しないAPIを標準化しようとする試みです。 Agent Protocolは、エージェント実行(Runs)、複数ターン実行の整理(Threads)、長期記憶の操作(Store)といった主要なAPIを定義しています。LangGraphだけでなく、AutoGen、OpenAI Assistant API、CrewAI、LlamaIndexなど、他のフレームワークや独自実装のエージェントもこのプロトコルを実装することで、相互運用が可能になります。 さらに、LangGraph Studioのローカル実行環境を提供することで、開発者の利便性を向上させました。以前はMac専用でDockerを使用していましたが、Pythonパッケージとしてインストール可能な、Docker不要のバージョンが提供されています。これは、langgraph-cli を使用してローカルで起動し、Agent Protocolを実装したサーバーとして機能します。これにより、あらゆるプラットフォームでLangGraph Studioを使用し、低レイテンシで効率的なデバッグが可能になります。 また、AutoGenなどの他のフレームワークのエージェントをLangGraphのサブエージェントとして統合する方法や、LangGraph Platformを使用してそれらをデプロイする方法も公開されました。LangGraph Platformを利用することで、水平スケーラブルなインフラストラクチャ、バースト処理のためのタスクキュー、短期記憶と長期記憶のための永続化レイヤーなどのメリットを活用できます。これにより、様々なフレームワークのエージェントを柔軟に組み合わせた、高度なマルチエージェントシステムの構築が可能になります。 本記事では、Agent Protocol の詳細な使用方法や、LangGraph Studio、AutoGenとの...
    Show More Show Less
    Less than 1 minute

What listeners say about 株式会社ずんだもん技術室AI放送局

Average Customer Ratings

Reviews - Please select the tabs below to change the source of reviews.