損保ジャパンが照会回答業務の効率化トライアル/オムロンが医療データ関連で売上高800億円超目標
LayerX AI・LLM Newsletter (2024/10/16-10/22) #269
今週の注目トピック
AI利活用最前線では、損害保険ジャパンによる、大規模言語モデルを活用した照会回答業務の効率化トライアル、などを紹介しています。
データ利活用最前線では、オムロンによる、医療データ関連の売上高800億円超目標、などを紹介しています。
今週のLayerXでは、バクラク請求書発行の「ポータルサイト機能」リリースなどを紹介しています。
Section1: AI利活用最前線
●テクノロジー
●テクノロジー(論文)
o1モデルの得意なタスクは「明確なルールと手順がある」もの、逆に苦手なタスクは「複雑な動きと状態管理が必要」なものだと示唆されました
大規模な法的ケース検索(LCR)のための合成データを自動構築する手法を提案。オンラインの判例データを元にLLMでクエリを生成。
Thought Preference Optimization (TPO)は、LLMの事後学習で、回答を生成する前に内部の思考過程を書き下した後に回答する
Metaは他にも多くの研究成果を発表しているが、中でも人間に頼らずLLM自身が報酬モデルをトレーニングするための新手法「Self-Taught Evaluator」は注目
●提供ベンダー(OpenAI)
ChatGPT Plus、Enterprise、Team、Eduユーザーは、Windowsデスクトップアプリの初期バージョンのテストを開始可能
OpenAI o1の推論方法を分析した報告が出た。この研究ではo1の推論プロセスを観察し、それを6つのパターンに分類した
OpenAIのこの記事、LLMのパフォーマンスを最適化しようと思った際の標準的なアクションロードマップが載っていて大変参考になる
●提供ベンダー(Microsoft)
●提供ベンダー(Anthropic)
Anthropic社がえぐいアップデートを発表 、AIが人間のようにPCを操作可能に!!
Anthropic Computer Use Demo JP: Claude 3.5 Sonnetのコンピューター使用機能を体験しよう
●提供ベンダー(Perplexity)
●提供ベンダー(Google)
●提供ベンダー(Meta)
Metaがテキストと音声を入出力可能な初のオープンソースマルチモーダル言語モデルである Meta Spirit LMを発表
Metaは他にも多くの研究成果を発表しているが、中でも人間に頼らずLLM自身が報酬モデルをトレーニングするための新手法「Self-Taught Evaluator」は注目
●提供ベンダー(Nvidia)
●提供ベンダー(Salesforce)
●提供ベンダー(Apple)
●提供ベンダー(Cohere)
●スタートアップ
●コンサル・SIer
野村総合研究所、オンライン商談ソリューション「econy」に生成AIを組み込み、コンプライアンスチェック機能を強化
商談時の不適切な発言を検出する機能
(1)リアルタイム型NGワードアラート
(2)文脈を理解した同義発言の検出
業務プロセスの抜け漏れを防止する機能
●利活用事例
日本銀行金融機構局|金融機関における生成AIの利用状況とリスク管理
生成AIの導入目的をみると、利用・試行中のほぼ全ての金融機関が「業務効率化/コスト削減」と回答している。また、主な利用分野としては、「文書の要約」、「文書の校正・添削・評価」、「翻訳」といった文書作成の補助や、「システム開発・運行管理」が挙げられている。
生成AIの管理状況をみると、7割前後の先が、クラウドにおける自社専用区画を利用し、生成AIによる入力内容の再利用や生成物のインターネット流出を防ぐ仕組みを導入しているほか、入力データに制約を設けている。
損害保険ジャパン|大規模言語モデルを活用した照会回答業務の効率化トライアルの実施
2024年10月から、大規模言語モデル(LLM)を活用した照会回答業務支援システム「おしそん LLM(仮称)※1」のトライアル運用を開始しました。
「おしそん LLM」は、損保ジャパンが保有する膨大な規定が記載されたマニュアルや Q&A データなどを学習し、照会内容に最適な回答案を自動生成するシステムです。
本システムでは、生成 AI が作成した回答案およびその回答案の参照先文書が回答者の画面に表示されます。
生成 AI が作成した回答案と参照先文書をもとに回答者が最終的な回答内容を作成することができるため、回答者は一から文章を作成する作業が不要となり、照会対応における業務時間が削減されます。
Section2: データ利活用最前線
●人流データなど
Section3: 今週のLayerX
●バクラク
国内外の請求書をAIが自動でデータ化。手入力の手間をなくし、コア業務に注力できるバックオフィス体制を構築
外貨請求書の処理もできるようになった「バクラク請求書受取」をご活用いただいているPeach Aviation様のインタビューを公開しています
バクラク請求書発行、取引先が専用ページで書類を受領できるポータルサイト機能をリリース。電子送付がより効率的に。
書類を受け取る取引先さまが、自社の専用ページで書類を受領し確認できる「ポータルサイト機能」をリリースしました
どんなシステムをつかってる?申請プロセス振り返りワークショップ
経理業務の効率化を目指す方必見のワークショップを開催します
●エンジニアリング
【連載】冒険者の地図:ゲーム好きが興じてQAエンジニアに、第一線で奮闘するLayerX・松山晃大さんの成長の軌跡(前編)
LayerX バクラク事業部 QAエンジニア 松山のインタビューを「Hello, Quality World!」に掲載いただきました。
●デザイン
【Designship2024出展】名刺交換×Techな体験ができるLayerXの "オリがみラボ" ブースができるまで
デザインの力でみんなの仕事を拡張したい。自らも領域を拡張し続けるバクラクのコミュニケーションデザイナー(#LXエモカレ)
●採用
●三井物産デジタル・アセットマネジメント(株)/ALTERNA(オルタナ)
現在、LayerXのAI・LLM事業部では、様々な大企業パートナーの皆様とLLMを活用した業務変革に取り組んでいます。金融領域に限らず、文書を扱う様々な領域でご一緒できればと考えています。
お気軽にこちらまでご連絡ください。
エンタープライズ企業のドキュメントワークを効率化する生成AIプラットフォーム「Ai Workforce」
「LayerX」の公式ウェブサイトはこちら
Disclaimers
This newsletter is not financial advice. So do your own research and due diligence.
発行者:株式会社LayerX(東京都中央区築地1-13-1 銀座松竹スクエア 5階)
お問い合わせ先:llm-labs@layerx.co.jp