知性と知能:第3回

知性と知能:第4回|AIに仕事を奪われたい
13,161 文字

Intellect and Intelligence: Episode 3
Join Tom, Jim, and Manjeet as they explore how artificial intelligence is revolutionizing Intellectual Property practice...

みなさん、こんにちは。わたくしはブラックヒルズAIの社長兼CEOのジム・ハレンベックです。本日は、ミネソタ州セントトーマス大学の大学院ソフトウェア・データサイエンス学科の学科長であり、応用人工知能センターのディレクターでもあるマニ・レッガ博士をお迎えしております。レッガ博士は著者、メンター、思想的リーダーとして、ビッグデータ、機械学習、人工知能技術について頻繁に講演をされております。教育と研究に継続的に携わる一方で、機械学習とAIの実践構築やイノベーティブなデータサイエンスアプローチの適用についてガイダンスを提供する専門家として、様々な業界をリードする組織のコンサルティングやメンタリングも行っておられます。
また本日は、ブラックヒルズ・リニューアルズの社長であり、ブラックヒルズAIのCTOでもあるトム・マーロも再び参加しております。今日はレッガ博士が知性と知能についての次のインストールメントについてご説明くださり、トムもそれに加えて、ブラックヒルズAIで私たちが行っていることやAI分野での知的財産の成長についてお話しする予定です。私は皆さんの知恵をお借りする立場ですが、それではレッガ博士、よろしくお願いいたします。
ジムさん、そして皆様、本日はお集まりいただきありがとうございます。これまでのウェビナーでは、生成AIに入る前に、AIに関連する多くのトピックについてお話ししてきました。例えば教師あり学習について、製品分類のように入力から出力へのマッピングを行うものについて説明しました。製品の画像を与えると、その製品が何かを予測するというものです。
前回は教師あり学習の具体的な応用について触れ、徐々に生成AIへと話を進めていきました。大規模言語モデル(LLM)についても取り上げ、その用途についても説明しました。まず、生成AIはテキストを生成するため、当然ライティングに役立ちます。非常によく使われているのが、ブレインストーミングのパートナーとしての活用です。
前回は主にライティングでの使用法、例えば新製品名のアイデア出しなどについて話しました。また、LLMにテキストを読ませる使い方についても触れました。それは顧客レビューやメールなどの場合があり、主に2つの用途に分けられます。1つは要約で、訴訟記録や特許出願書類などの大量のテキストを要約することです。もう1つは分析で、テキストの感情分析を行い、製品に対する顧客の満足度や即座の対応が必要かどうかを判断するといった使い方です。
本日の焦点は、LLMのチャットボットとしての応用についてです。私は多くの企業と仕事をしていますが、ここでお伝えしたいのは、企業がLLMをどのように統合していくかということです。一方の極には人間のみのアプリケーション、例えばカスタマーサービスセンターがあります。ここでは人間のサービス担当者が「eコマースサイトへようこそ」や「サービスへようこそ」といったメッセージを入力し、注文や情報を受け付けます。もう一方の極にはチャットボットのみがあり、ソフトウェアが直接顧客に応答します。
これら2つの極の間には、いくつかの一般的な設計ポイントがあります。1つは、ボットが人間をサポートするもので、ボットが提案メッセージを生成し、人間のサービス担当者がそれを承認するか、顧客に送信する前にメッセージを編集するというものです。この種の設計は「人間によるループ」とよく呼ばれ、チャットボットが間違ったことや幻覚を言うリスクを軽減する方法です。
人間がチェックできるため、企業の評判を守ることができます。自動化の面でさらに進んだものとしては、ボットが人間向けにメッセージを振り分けるものがあります。ボットが簡単なメッセージに答え、まだ対応できない事項は人間にエスカレーションします。この種の振り分けは、人間のサービス担当者の時間を節約し、より難しいタスクに集中できるようにする一般的な設計です。
多くのカスタマーサービスセンターでは、1人の担当者が同時に4人、8人、極端な場合は16人の顧客とチャット会話を行うことがあります。ボットが人間をサポートすることで、より多くの並行会話を管理しやすくなります。そして、技術が進化し、開発したチャットボットが完全に展開できる段階に達すれば、チャットボットのみの運用に移行できます。
ボットが時々間違ったことを言うことを考慮すると、安全な方法でボットを構築・展開したい企業がどのように感じるかをお伝えしたいと思います。多くの企業は、内部向けチャットボットから始めます。内部チームの方が、ミスに対してより理解があり、ボットが間違ったことを言っても寛容だと考えられるためです。
これにより、ボットの動作を評価する時間を確保でき、企業にとって恥ずかしい公的なミスを避けることができます。次によく行われるのは、人間によるループを導入し、多くのメッセージを人間にチェックさせることです。しばらくこれを行い、ボットのメッセージが一般的に顧客に送信しても安全だと判断されれば、ボットが直接顧客とコミュニケーションを取ることを許可するかもしれません。
もちろん、企業によって詳細は異なります。トラフィックの量が膨大な場合、人間がすべてのメッセージをチェックすることは現実的ではないかもしれません。しかし、ボットが間違ったことを言うリスクとトラフィックの量に応じて、これは検討に値する適切な設計パターンです。
生成AIは素晴らしい技術ですが、すべてができるわけではありません。他のすべての技術と同様、生成AIにも限界があります。LLMができることとできないことをどのように評価するか、その限界を理解することで、実際には得意ではないことに使おうとして躓くリスクを減らせると思います。
LLMができることを判断しようとする場合、次のような有用な思考の枠組みがあります。それは、プロンプトに書かれた指示だけに従って、夏期インターンがそのタスクを完了できるかということです。例えば、メールを読んで製品返品についてのメールかどうかを判断することができるでしょうか?はい、インターンならおそらくできるでしょう。その場合、LLMもかなり上手くできます。
同様に、顧客のメールがポジティブな感情かネガティブな感情かを判断することも、新しく雇った夏期インターンなら問題なくできるでしょう。では、あなたの会社についてあまり知らない新しいマーケティングの夏期インターンに、会社が移転する新しい場所についてプレスリリースを書いてもらう場合を考えてみましょう。この場合、背景情報があまりないため、インターンは良いプレスリリースを書くのに苦労するでしょう。同様に、LLMも非常に一般的なプレスリリースを書くことになり、公開用として適切なものにはならないでしょう。
しかし、プロンプトでより多くのコンテキストや背景情報を与えれば、この場合、夏期インターンやLLMは、より目的に合わせてカスタマイズされたプレスリリースを作成するために必要な背景情報を持つことになります。これは完璧な思考の枠組みではありませんが、LLMの能力についての指針を与えてくれると思います。
確かに、インターンができてLLMができないタスク、あるいはその逆もありますが、この思考モデルは概してLLMの能力についての考え方を示してくれます。LLMを夏期インターンのように想像する場合、そのインターンは多くの一般的な知識を持っていますが、ウェブ検索エンジンにアクセスせずにタスクを完了しなければならないと考えてください。
LLMにタスクを実行させる場合、それは過去の学習に依存しており、ライブの検索エンジンへのアクセスはなく、あなたのビジネスについてリアルタイムの情報は持っていません。明確にするために言えば、この思考実験では、特定の会社やビジネスに関する特別なトレーニングなしでタスクを完了する必要があり、LLMにプロンプトを与えるたびに、LLMは以前の会話を覚えていません。
つまり、毎回新しい夏期インターンを得るようなものです。ビジネスの詳細や望む文章のスタイルについて、時間をかけて教育することはできません。先ほど述べたように、インターンについてのこの経験則は完璧ではありませんが、概してLLMができることとできないことについての考え方の有用な出発点を与えてくれます。
生成AIが得意ではない可能性のあるデータの一つの側面は、構造化データです。構造化データとは、ここで示すような表形式のデータを指します。年齢、収入、教育レベルといった顧客データがあり、製品購入の有無があります。このようなデータが与えられた場合、人の年齢、収入、教育レベルから、その人が購入するかどうかをモデルが予測できるかどうかを知りたいとします。
このような場合、生成AIは苦戦しますが、以前のウェビナーで説明した教師あり学習は非常に優れた性能を発揮します。なぜなら、教師あり学習は一連の特徴から何か別のものを予測するためのマッピングを行うことを目的としているからです。年齢、収入、教育レベルを入力として、その人が購入するかしないかというイエスかノーの出力を予測します。
一方、非構造化データ、つまり表に格納できないようなテキストの本文を読む場合、画像を見てその内容を説明する場合、コードを見てコードを分析する場合などは、開発者やプログラマーである必要はありませんが、プログラマーが書いたコードのロジックを理解しようとする場合、LLMに与えれば平易な英語で理解し説明することができます。これは生成AIが非常に優れている非構造化データです。
これを認識し、適切なツールを適切な場所で使用することが重要です。テキスト生成は多くのユーザーが使用しており、生成AIのさまざまなツールの中で大きな影響を与えています。しかし、生成AIの興奮の一部は画像生成にもあります。テキストまたは画像を生成できるモデルもあり始めており、これらはテキストや画像などの複数のモダリティで動作できるためマルチモーダルモデルと呼ばれています。
ここで、画像生成がどのように機能するのか、この技術がどのように働くのかをお伝えしたいと思います。今日の画像生成は、主に拡散モデルと呼ばれる方法を使用して行われています。拡散モデルは、インターネットなどで見つかった膨大な数の画像から学習しています。実は、拡散モデルの中核には教師あり学習があります。
これがどのように機能するかというと、例えばアルゴリズムがインターネット上で犬の写真を見つけ、このような写真や他の何億もの画像から新しい画像の生成方法を学習しようとします。最初のステップは、この画像を取り、徐々にノイズを追加していくことです。
きれいな犬の写真から、よりノイズの多い画像へ、さらにノイズの多い画像へと進み、最終的にはすべてのピクセルがランダムに選ばれた純粋なノイズのような画像になり、もはや犬には見えなくなります。拡散モデルは、これらの画像をデータとして使用して教師あり学習アルゴリズムを学習します。
教師あり学習アルゴリズムは入力から出力へのマッピングを行うことを思い出してください。この場合、教師あり学習アルゴリズムは、ノイズの多い画像を与えられ、やや少ないノイズの画像を出力します。具体的には、画像2のようにやや少ないノイズの画像が与えられると画像1を予測し、画像3のようなよりノイズの多い画像が与えられると画像2のようなノイズの少ない画像を生成するというようにデータセットが作成されます。
おそらく何百万もの画像で学習した後、新しい画像を生成したい場合、このように実行します。完全にランダムなノイズの画像から始めます。画像内のすべてのピクセルが完全にランダムに選ばれた画像から始めるのです。
この画像を、先ほどのスライドで説明した教師あり学習アルゴリズムに入力します。純粋なノイズを入力すると、その画像から少しノイズを除去することを学習し、中央に何らかの物体が示唆されるような画像になりますが、まだ何であるかは確実ではありません。
このようにしてここからここまで進んできました。2番目の画像が得られたら、再び教師あり学習モデルに入力し、さらにノイズを除去して、少し明確になった画像が得られます。そしてこの順序で、これを得て、再び同じモデルにノイズを除去するために入力すると、中央にきれいな靴の画像が見えてきます。基本的にここからここまで進んできたわけです。
このアルゴリズムは完全にランダムな画像を生成するために機能します。私は靴の画像を生成するように指示していませんでしたが、ランダムに生成されました。しかし、私たちが望むのは、特定のテキストプロンプトから欲しい画像を生成できるようにコントロールすることです。
私が説明したプロセスを、特定のプロンプトテキストから望む画像を生成できるように調整することができます。そのやり方をお伝えしましょう。アルゴリズムの修正について説明しましょう。
トレーニングデータでは、このような画像とともに、この犬の画像を生成した可能性のある説明やプロンプトが与えられます。そして以前のように、4番目の画像である純粋なノイズになるまでノイズを追加していきます。しかし、学習アルゴリズムの構築方法を変更します。
わずかにノイズのある画像だけを入力して、きれいな画像を生成することを期待するのではなく、教師あり学習アルゴリズムへの入力として、このノイズのある画像とテキストのキャプションやプロンプトを与え、その目標は今、ノイズの少ない画像を生成することです。
データポイントの観点から考えると、入力はよりノイズの多い画像とキャプションで、それが画像1を生成します。同様に、画像3とキャプション「犬」が画像2を生成します。大規模なデータセットから学習した後、このアルゴリズムを適用して、例えば青いSUVを生成したい場合、以下のようにします。
以前と同様に、完全にランダムなノイズの画像から始めます。すべてのピクセルが完全にランダムに選ばれています。しかし、青いSUVの画像を生成したい場合、教師あり学習アルゴリズムにノイズの画像とキャプション「青いSUV」を入力します。すると、これらのランダムなピクセルは中央に何かを生成するように導かれます。
青いSUVが欲しいことを知っているので、中央に何かを生成します。ここからここまで到達したわけです。新しい画像に同じキャプションを繰り返し与えると、より明確な画像が得られます。これが今得られた画像です。そして再びこれとキャプションを同じアルゴリズムに与えると、青いSUVのよりはっきりとした画像が得られます。
基本的に、提供したキャプションが、望む物体を最終的に作成するためにピクセルをどのように配置すべきかを導いたのです。
ソフトウェアアプリケーションを構築する生成AIプロジェクトのライフサイクルは以下のようになります。まず、このソフトウェアに何をさせたいのかを決めるプロジェクトのスコーピングから始めます。例えば、オンラインの評判モニタリングシステムを構築したいとします。
次のステップは実際に実装することです。生成AIを使用したAIアプリケーションの構築の容易さを考えると、非常に迅速にプロトタイプを構築し、時間をかけてこのソフトウェアを改善していく計画を立てることがよくあります。
以前のウェビナーで、2回前だったと思いますが、生成AIにより開発サイクルが月単位から週単位に短縮されたことについて話しました。その結果、プロジェクトのスコーピングからプロトタイプの構築まで、場合によっては数日で完了できます。
アプリケーションによっては、初期のプロトタイプを1〜2日で構築できるかもしれません。正直に言って、その初期プロトタイプは最初は良くないかもしれませんが、迅速に構築することで、内部評価に進むことができます。内部チームにシステムをテストさせ、正しい応答をどれくらいの頻度で返すかを確認します。
時々、内部評価で正しい結果を返さない例が見つかり、内部で発見された問題に基づいて、システムの改善に戻ります。生成AIソフトウェアアプリケーションの構築は、非常に反復的なプロセスになる傾向があります。
十分な内部評価を行い、システムが十分に機能しているという確信が得られた後、実世界に展開します。しかし、展開した後も継続的にパフォーマンスを監視する必要があります。私たちはよくコンセプトドリフトについて話します。
つまり、AIモデルが学習したデータが、展開後に供給されるデータと異なる可能性があるということです。何かを展開して、最初は外部ユーザーもシステムにミスを引き起こす入力を生成するかもしれないことは驚くべきことではありません。その場合、実装の改善に戻ることを決定するかもしれません。
それでは、ジムとトムにバトンタッチします。
ありがとうございます、レッガ博士。いつも洞察に富んだお話をありがとうございます。質問が来ているようですね。質問はチャットに入力してください。最初に申し上げるべきでしたが、手を挙げている方がいらっしゃいますが、代わりにチャットに質問を入力していただき、トムと私が話をした後で質問にお答えしたいと思います。
それでは、トム、始めてください。私も適宜コメントさせていただきます。
はい、ありがとうございます。レッガ博士、いつものように素晴らしいプレゼンテーションでした。ここで少し時間を取って、知的財産分野でのこれらの応用について説明したいと思います。画像生成のような興味深い内容に比べると見劣りするかもしれませんが、これが私たちの分野ですので、できる限り頑張ってお話しします。
特に、このAI技術を使用してプロセスにどのように価値を付加できるかを見ていきます。まず第一に、「ガベージイン・ガベージアウト(入力がゴミなら出力もゴミ)」という言葉を聞いたことがあると思います。AI分野では、多くの人が考えている以上に当てはまります。
私は「クオリティイン・クオリティアウト(質の良い入力なら質の良い出力)」という、より前向きなアプローチを好みます。以前のウェビナーに参加された方はご存知だと思いますが、AIプロジェクトにとってデータが非常に重要です。重要なのは、何を収集し、どのデータを集め、価値のある分析や実用的な洞察の基礎となるものは何かを理解することです。
これはすべてのAIプロジェクトに当てはまりますが、特にコンテキスト目的でデータに依存したい、よりチャット的な生成タイプのプロジェクトでは重要です。もちろん、データを持っているだけでは十分ではありません。
データの量だけでなく、データがどのように整理され、ラベル付けされ、分類されているかが重要です。データが処理される際、そのデータについて心配したり、アクセスしたり、コンテキストとして使用したりするために、一貫性のある組織化や命名が重要です。
一貫性のないデータ組織、データ品質の規則、フィールドの命名などは、これらのツールの使用を不便で非効率なものにし、特に有用ではなくなってしまいます。よく見落とされがちなのはタイムリーさの考え方です。例えば、レスポンスを作成している場合、システムが参照文献を読み込んでOCR処理し、クエリを実行したりコンテキストの一部として使用できる状態にあるかどうかを知りたいものです。
関連データをタイムリーに利用できることが重要です。なぜなら、それがツールの有用性につながるからです。結局のところ、すべてのベルやホイッスルは、有用なワークフローがなければ意味がありません。そこでアクセシビリティも重要になってきます。操作する必要のあるデータに簡単にアクセスできなければ、ツールはその有用性を失います。
市場にある多くのツールのAI機能は、おそらくChatGPTや他の容易に利用可能なLLMツールで何らかの方法で再現できるでしょう。それは間違いありません。私たちの視点では、差別化要因はワークフローとなり、AIを使って関連する文書やデータを簡単に操作できるようにすることです。
これはすべて、ブラックヒルズで私たちがどのようにツールを運用しているかについての簡単な説明の布石です。まず強調しておきたいのは、私たちが保持しているデータは、知的財産文書や通信を何年もかけて処理してきた経験に基づいているということです。
OCR処理、重要なメタデータの抽出、日付、フォーム識別子、参照事項、拒絶タイプ、ドケッティングや審査決定に影響を与える可能性のある重要な言語などについて話しています。そしてもちろん、すべてのデータを整理することは大きな仕事です。どのデータが重要で有用か知り、そのデータを利用可能にすることは重要な部分です。
ブラックヒルズでは、これらすべてのデータを非常に安全に保存する中央ハブを持っています。それも重要です。私たちのツールは分析のためにこのハブからデータを取得することができ、ドケッティングサービスプロバイダーとして、つまり会社の起源がそこにあったため、顧客のシステムをできるだけ最新の状態に保つために、毎日知的財産庁からの通信を取得し処理することを主な目的としています。
私たちは、顧客のために行うすべての処理をいわば「リアルタイム」または「同日」で行うことができ、それを活用して顧客の知的財産活動に関する非常に最新のデータセットを維持する能力を持っています。
ここでちょっと私からも付け加えさせていただきます。私たちは、これらのAIツールを持っていて、市場には多くのAIツールがあり、トムが言ったように、その多くは同じモデルの上で動作していて、既存のモデルを使用することで多くの機能をかなり急速に複製することができます。
しかし、私たちが提供しているのは、ユーザーインターフェース、追加のコンテキスト設定のレイヤー、特定分野でのトレーニングなどですが、それ以上に重要なのは、私たちのツールで実際に見始めることができる、容易にアクセス可能なデータと文書を、必要な時に必要な場所で、大きな単純さをもって提供できることです。
これは中央データハブへのアクセスによって可能になり、ファイル履歴文書を容易にコンテキストに配置できます。これは検索拡張生成、またはコンテキスト設定としても知られていますが、AIツールと対話する際に使用されます。
これは、特定のケースで望む出力を得るためのポンプの準備をするようなものです。文書を検索してダウンロードし、AIツールにアップロードしてからクエリを実行する必要はありません。単に必要な文書を選択してコンテキストに取り込み、プロンプトを送信するだけです。
これはまた、ウェブベースのユーザーインターフェースやスマートフォンアプリなどを通じて単にプロンプトを送信するだけでなく、他のオプションも提供します。例えば、オフィスアクション応答シェルと出力をパイプライン化するようなオプションもあります。シェルの中や一緒に特定のタイプの出力を望む場合、オフィスアクションと参照文献の評価、審査官が何かを見つけているのか、あるいは審査官が間違っているのかとその理由、そしてファイル履歴の他の異常も特定することができます。
これはオフィスアクションを受け取る時、あるいは顧客に提供するオンラインポータルにアクセスする任意の時点で、ファイル履歴の異常を特定することができます。ここで起きているのは、これらの異なるサービスの収束です。AIベースのもの、より生成AIの意味でのAI、よりエキスパートシステムのコンテキストでのAIなど、これらすべてが収束していますが、それは中央データハブの周辺で収束しています。
処理能力は過去の戦いでした。処理能力は今日では十分に利用可能で、購入する必要さえありません。単にレンタルすればいいのです。今、データ処理の進化における次のステップ、特に知的財産の分野で本当に重要なのは、容易に利用可能なデータと共に、容易に得られる処理能力を活用する能力です。
データは存在しますが、誰もが必要な形式や組織化された形で持っているわけではありません。必ずしも最新ではなく、最新になったとしてもいつなのかわかりません。私たちは中央データハブの構築とその周りのサービス構築に多くの時間を費やしてきました。
生成AIはそのサービスの一つですが、生成AIでさまざまなものをパイプライン化する能力も持っています。しかし、その中核にあるのは中央データハブと、それを活用できる強力なソフトウェアです。
ここにユーザーインターフェースのサンプルがあります。左側でファイル履歴を選択できます。これはファイル履歴内にあり、参照文献がすぐに利用できます。なぜなら私たちはこれらを毎日取得しているからです。これを表示すると、ユーザーインターフェース内で直接参照文献を見ることができ、クリップをクリックしてコンテキストに取り込み、参照文献を素早く要約するようにプロンプトを送信できます。
また、その参照文献がオフィスアクションで正確に適用されたかどうかなど、より具体的な質問をすることもできます。次の画像では、オフィスアクションがあり、スクロールして全体を見ることができます。左側にはさまざまな文書があります。黄色の警告サインが見えるかもしれませんが、これはただファイル履歴が完全に読み込まれていないだけです。
この例に必要なものは用意されています。最終オフィスアクションまたは非最終オフィスアクションがあり、要約を求めることができます。前のページで見た参照文献を考慮して、このオフィスアクションの評価を求めることもできます。
ポイントは、すべてを一か所に集めることで、クエリを実行し、ツールにプロンプトを送信して応答を生成することが素早くできるということです。しかし、これは新しいコンテンツを生成する目的だけではありません。
異なるプロンプトを入力する方法や、コンテキストに取り込む異なる文書について、想像力の限界だけが制限となります。例えば、クレームをアップロードして、AIツールに基礎の確認を依頼したり、クレームが出願時の明細書で適切にサポートされていることを確認したりすることができます。これは審査中に新しいクレームを提出する際に非常に役立ちます。
図面の参照の一貫性のチェック、クレームが特許適格性を持つかどうかの予測、用語の使用のチェックなど、品質管理的な作業もできます。これらは出願前の書類でも、オフィスアクション応答でも、あらゆる種類の文書で行うことができます。これは準備と審査の側面だけではありません。
すべてをここ一か所に置くことで、レッガ博士が前に話していた素晴らしい技術の恩恵を受けることができます。チャットボットを必ずしも顧客に向けて外向きに使用するのではなく、弁護士、代理人、パラスタッフに向けて内向きに使用することを考えてください。これは素晴らしい機会を提供します。
訴訟の文脈でも非常に有用です。なぜなら、ケースのファイル履歴のすべてをコンテキストに取り込み、簡単なことを尋ねることができるからです。例えば、特許侵害の訴状にどのように対応するかを決める際の出発点として、ファイル履歴を取り上げ、AIツールに特許が許可された際の出願人の主張が正確だったかどうかを評価するよう素早く依頼することができます。
予算や時間の制約で他の方法では実行できないかもしれない多くのことを、非常に素早く特定することができます。
私はこのことにとても興奮しますが、レッガ博士が提示した資料は素晴らしく、バックエンドでデータを取り込んでコンテキストを設定することで、これらのAIツールを多くの異なる目的で非常にユニークな方法で使用することができます。
トム、他に何かありますか?市販のLLMやその他の利用可能なモデルについて話していた際に質問が出ていましたね。質問は「モデルをさらにトレーニングできない場合、どのように改善するのか」というものでした。
ファインチューニング技術を通じて改善できる部分はあると思います。私たちは通常、それほど多くのファインチューニングは行いません。なぜなら、多くの顧客は、処理している彼らのデータがモデルのトレーニングに使用されることを望まないからです。
そのため、最初からトレーニングに利用できるものが制限されます。ファインチューニングには価値がありますが、より大きな利点は、コンテキストとして使用できる質の高いデータを持つことで、システムの結果と有用性を改善できることです。
また、より良く形成されたプロンプトや、ツールをより改善された方法で使用できるようにワークフローに組み込むことができるものを通じても改善できます。考え方として良いのは、モデルからの結果を改善するのは、単にモデルの再トレーニングだけではないということです。
モデルの使用方法自体も大きな部分を占めます。さらに、私たちが使用しているモデルの一部は、完全に公開されているデータに基づいて、法律分野、特に知的財産法の分野でファインチューニングされており、良いベースラインから始めることができます。
レッガ博士、何か付け加えることはありますか?
はい、トムの発言に100%同意します。モデルのトレーニングだけでなく、使用方法も重要です。モデルトレーニングは、MetaやOpenAI、オープンソースモデルによって行われる場合があり、重みをダウンロードして持つことができます。
もちろん、ファインチューニングもトレーニングの一部ですが、使用方法も重要です。使用する際、モデルがどれだけよくトレーニングされていても、適切なコンテキストや適切なプロンプトを与えなければ、モデルの精度は決して望むレベルに達しません。
覚えておくべき他のことは、これらのモデル、AnthropicやOpenAI、Meta、Google、Microsoftなどの異なるモデルは、継続的に新しいモデルを開発し、モデルを更新し、既存のモデルを再トレーニングしているということです。
そのため、モデルを選択する際に、市場で最も良いモデルが何であるかを把握し続ける必要がありますが、1つのモデルにしか統合できないインフラストラクチャを構築したくはありません。会社にとって意味のある時にモデルを変更できるようにしたいのです。
6ヶ月後により良いモデルが市場に出ているかもしれません。私たちがAIを展開することを選択した方法は、モデルを変更し、その時点で最も良いモデルを使用していることを確認できる能力を持ち、技術の進歩に追いつくことです。
しかし、同時に、同じ機能を提供しながら、改善された出力を持つことができる私たちのレイヤーを持つことができます。改善は速度、正確性などの面で可能です。
モデルの改善や、より良いモデルを得ることについてのこれらの質問についてもう一つ言えることは、良いプロンプトの重要性と、プロンプトで採用する戦略を過小評価しないことです。より絶対的な回答、つまり真偽や、何かが存在するかどうかなど、1か0のような答えを求めると、ほとんどのツールでは、不正確な結果や、あまり有用でない結果を得る可能性が高くなります。
プロンプトをより開放的に、説明的な種類の応答を得られるようにすると、より有用な答え、より情報に富んだ答え、あるいは答えというよりも応答と言うべきかもしれませんが、そういったものを得る可能性が高くなります。
プロンプトの重要性は、トレーニングだけでなく、モデルだけでなく、そのモデルのトレーニングだけでなく、モデルのファインチューニングだけでもありません。プロンプトの方法とプロンプトで使用する戦略も重要です。
また、はい・いいえの答えの場合、モデルになぜはいなのか、なぜいいえなのかを説明させることも、正確性の面でかなり役立ちます。
もちろん、法律分野では、ガードレールを忘れないでください。他の人のツールであれ、私たちのツールであれ、どのAIツールから出力されたものであっても、裁判所や特許庁などに提出する前に、必ず読んでください。

コメント

タイトルとURLをコピーしました