
知性と知能:第3回|AIに仕事を奪われたい
14,641 文字

はい、Black Hills AIのウェビナー「知性と知能」にご参加いただき、ありがとうございます。この回の録画とスライドは、Black Hills AIのYouTubeチャンネルとウェブサイトで公開される予定です。質問がございましたら、Zoomメニューのチャット機能をお使いください。LinkedInでのフォローや、Black Hills AIのウェブサイトで他のウェビナーについても是非ご覧ください。それでは、Jimさんにバトンタッチいたします。
みなさん、こんにちは。参加いただき、ありがとうございます。西海岸の方々にとってはおはようございますね。本日は「知性と知能」の第2回目として、法的倫理と生成AIについてお話しさせていただきます。まずは、Dr. レガエから、AIツールの一般的な仕組みについてお話しいただきます。私たち弁護士には、仕事で使用するツールの仕組みを理解する義務があります。そうすることで、生成される内容の信頼性や、どの程度信頼を置けるのかといったことをより良く理解できます。技術的な仕組みを理解することは、倫理的義務を果たす上で非常に重要です。その後、ABAの職業行為モデル規則に触れ、特定の規則とAIの使用がどのように交差するのかを見ていきます。日々の業務でAIを使用する際に注意すべき点について理解を深めていただければと思います。
それでは、Dr. レガエ、お願いします。
ご紹介ありがとうございます。ウェビナーにご参加いただき、ありがとうございます。前回のウェビナーでは、AIと生成AI全般について、そして教師あり学習が常に予測を行うものであることについてお話ししました。その考えを発展させ、まずは大規模言語モデル、つまりLLMについてお話ししたいと思います。ChatGPTのリリース以降、メディアや文献でよく使用される用語ですので、LLMとは何か、そしてどのような要素で構成されているのかを説明するのは良い機会だと思います。
まず、大量のデータが必要です。これが、モデルが文脈や異なる単語の関連性を学習する生データとなります。同じ単語でも文脈によって異なる意味を持つことがありますので、まず膨大なデータへのアクセスが必要です。
次に、トランスフォーマーアーキテクチャと呼ばれるものが必要です。詳細には立ち入りませんが、アルゴリズムという言葉を聞くと、それはデータから学習するために存在する様々な数学的関数や機械学習アルゴリズムを指します。人工ニューラルネットワークという特定のタイプのアルゴリズムがあり、その中にもバリエーションがあります。その一つがトランスフォーマーアーキテクチャで、言語モデルにおいて非常に優れた性能を示しています。
生データとデータから学習するツールがあれば、次はモデルの訓練プロセスです。これは通常、企業が直接行うことはありません。Googleやメタ、OpenAIなどの大企業が訓練した基礎モデルを使用します。ChatGPTなどのアプリケーションを使用する際、生成された応答に対して「いいね」や「よくないね」のフィードバックを行うことがありますが、これが人間からのフィードバックによる強化学習(RLHF)です。AIが生成した出力に対して、人間がそれを承認したり、改善の余地があると指摘したりすることで、次回の出力が改善されるようになっています。
また、事前訓練された多くのモデルは、特定のドメイン向けにファインチューニングすることができます。法律アプリケーションや医療アプリケーション、教育アプリケーションなどの生成AIを見ると、最初の3~4ステップは同じですが、その後、新しい問題セットに適応するように調整されます。これにより、汎用的な回答ではなく、より特化した回答が生成されるようになります。
これが基本的なLLMの構造です。生成AIアーキテクチャは、基礎モデルからアクションを開始するためにプロンプトエンジニアリングを使用します。プロンプトエンジニアリングとは、言語モデルが特定のタイプの出力を生成するためのプロンプトやインプット刺激を設計・改良するプロセスです。適切なキーワードの選択、文脈の提供、モデルが望ましい応答を生成するように入力を形作ることを含みます。これは基礎モデルの動作と出力を積極的に形作る重要な技術です。
プロンプトエンジニアリングはプロンプトから始まります。これはモデルに入力するテキストです。モデルはそのプロンプトに対して応答を生成し、これをモデルの推論と呼びます。推論の結果が出力として表示されます。例えば、プロンプトが「日本はどこにありますか?」の場合、モデルはそのプロンプトを推論して「日本は北西に位置しています」という出力を返します。モデルは常に望む出力を生成するとは限りませんので、プロンプトを変更したり、タスクの例をプロンプトに含めたりする必要があるかもしれません。
では、LLMがどのようにテキストを生成するのか見てみましょう。「私はハイキングが好きです」というプロンプトを与えると、LLMは「秋の山で」といった文の残りの部分を生成するかもしれません。同じプロンプトを再度実行すると、「春の森で」といった別の文を生成するかもしれませんし、3回目には異なる選択肢が生成されるかもしれません。
入力したプロンプトがあり、これがAIによって生成された出力です。最初に示される選択肢は、その文を完成させる確率が最も高いものです。再度実行すると、それが期待していたものではないかもしれないと判断して、2番目の選択肢を提示し、以降も同様です。これらはすべて確率的な出力であり、最初に表示されるのは、その文を完成させる確率が最も高かったものです。
これらの出力はどのように生成されるのでしょうか。最初の選択肢である「私はハイキングが好きです 秋の山で」を例に取ってみましょう。LLMは教師あり学習を使用して構築されています。教師あり学習は、前回のウェビナーでお話しした技術で、入力Aから出力ラベルBへのマッピングを学習するものです。次の単語を繰り返し予測するために教師あり学習を使用します。
例えば、AIシステムがウェブ上のどこかで「私はハイキングが好きです 秋の山で」という文を読んだことがあるとします。この1つの文は、次の単語を予測するための学習に使用される多くのデータポイントに変換されます。そして、このプロンプトを与えられると、AIはすでにその文を読んでいるため、次の単語を予測します。次の単語を予測した後、「私はハイキング」を入力として使用し、次の単語を予測します。それに「で」を加え、以降も同様に進めて、文の残りの部分全体を予測します。
非常に大規模なAIシステムを、数百億、場合によっては1兆語以上の大量のデータで訓練すると、ChatGPTのような大規模言語モデルが得られます。これは、プロンプトに対して追加の単語を非常に上手く生成できます。技術的な詳細は多く省略していますが、LLMの核心には、大量のデータから次の単語を予測することを学習したこの技術があります。これがLLMの仕組みです。常に次の単語を繰り返し予測するように訓練されています。
企業環境でLLMはどのように使用されているのでしょうか?私がコンサルティングを行う際の主な使用例は何でしょうか?まず1つ目は、驚くことではありませんが、テキストの生成、つまり文章作成です。アイデアを出したり、新しいコンテンツを作成したりするためにLLMを使用します。2つ目は、読解のための要約です。大量のテキストがあり、その感情を理解したり要約したりする場合、これがもう1つの大きな使用例です。3つ目は、チャットボットです。ただし、汎用的なチャットボットではなく、特定のドメインや使用例に特化したチャットボットです。おそらく、その企業の文書や製品、サービスに関する質問にのみ答えるべきでしょう。
今日は主に最初の2つの使用例、つまり文章作成と読解に焦点を当て、次回はチャットボットの使用例をご紹介します。文章作成では、小さなテキストやプロンプトを与えることで、より大きなテキストを生成したり、アイデアを提供したりできますが、ここでプロンプトが重要になります。
例えば、「マーケティング戦略のアイデアを生成してください」という、製品や目的についての文脈を含まない一般的なプロンプトを与えると、生成される出力も非常に一般的なものになります。一般的なプロンプトを与えれば、LLMも一般的な出力を生成します。一方、「Eコマース業界向けにカスタマイズされた革新的なデジタルマーケティング戦略のアイデアを生成してください」というように、より詳細なプロンプトを与えると、生成される出力はより洞察に富み、有用なものになります。AIがあなたを助けるためには、まずあなたがAIを助ける必要があります。より有益な情報を含むプロンプトを与えることで、より良い生成出力が得られます。
先ほど述べたように、文章作成は良いプロンプトに依存して良いテキストを生成します。読解については、現在の産業界における2つの大きなアプリケーションは、要約と本文の分析です。まず要約についてお話ししますと、一般的なアプリケーションがいくつかあります。
エグゼクティブ向けの要約では、幹部や意思決定者が文書全体を読まなくても重要な情報を素早く把握できるよう、広範な報告書、財務文書、市場調査から重要なポイントを要約します。顧客のクエリ、フィードバック、サポートチケットを自動的に要約し、サービス担当者が一目で問題を理解できるようにします。
JimとTomから法的文書分析についてお話がありますが、基本的に、法的契約書、事例ファイル、法律文書を要約し、弁護士や法律専門家が最も関連性の高い情報を素早く特定できるようにし、法的調査における時間とリソースを節約します。
医療記録の要約では、長い患者記録や医療履歴を簡潔な要約に変換します。市場動向を把握できるよう、ニュース記事やメディアコンテンツを要約して迅速な消費を可能にします。会議議事録については、現在ではZoomミーティングに追加できるボットもあり、重要なポイントやアクション項目を自動的に要約し、音声録音の文字起こしも行います。
メール管理では、受信メールの内容を要約して主要なポイントを強調します。多くのやり取りがあるメールの場合、すべてを読む代わりに、それらのやり取りの最終的な結論を素早く把握できるアドオンサービスがあります。不動産業者やバイヤーがマッチングや市場動向を素早く特定できるよう、物件リスト、市場レポート、クライアントの要件を要約します。このように、要約という大きな使用例に対応する多くのサービスが登場しています。
もう1つは分析です。例えば、加入者により良いサービスを提供するためにコールセンターを重視している企業の多くが生成AIを使用しています。1つは多言語サポートで、問い合わせの翻訳や様々な言語での応答生成、自動言語検出に生成AIを使用しています。品質保証とコンプライアンスでは、法的コンプライアンスを確保し、違反を特定するために、生成AIを使用してインタラクションの監視と文字起こしを行います。
ナレッジベースの作成と保守では、顧客の問い合わせに基づいて、生成AIを使用してFAQ、ガイド、説明コンテンツを生成しています。感情分析では、問題解決を支援し、顧客満足度とロイヤルティを測定するための積極的な感情分析に生成AIを使用することへの関心が高まっています。エージェント向けのスクリプト生成では、一貫性のある効果的なコミュニケーションのために、生成AIで作成されたスクリプトや推奨される応答でヒューマンエージェントを支援します。
これは新しいものですが、一貫性のためのボイスクローニングがあります。生成AIを使用して特定の声やペルソナをクローニングし、バーチャルエージェントの一貫したブランディングを確保します。つまり、異なる目的や聴衆のためにカスタム音声を作成します。また、生成AIを使用してリアルな研修シミュレーションを作成し、実際のシナリオに向けて効果的にエージェントを準備し、価値あるフィードバックを提供します。
分析の観点では、顧客とのインタラクション、例えば顧客のメールやコールセンターでのやり取りを分析することへの関心が高まっています。例えば、メールの形で届いたフィードバックに対して、基本的にできることの1つは、それがネガティブかポジティブか、つまり苦情かどうかを素早く判断することです。これは当然、非常に簡単にできますが、ここでも顧客とのインタラクションを分析する際には、プロンプトが非常に重要です。
例えば、「以下のメールをどの部署に転送すべきか指定してください」というプロンプトを与えた場合、LLMは「ホームファニシング部門に転送すべき」と答えるかもしれません。しかし、これは非常に一般的な回答です。その企業にはホームファニシング部門が存在しないかもしれません。これは与えられたプロンプトが一般的すぎたためです。
一方、プロンプトを改良して、「どの部署に転送すべきか教えてください。なお、以下の部署リストから選んでください」というように指定すると、より多くの価値ある情報が得られ、同じメールに対してより良い出力が得られます。プロンプトは、テキスト生成や文章作成アプリケーションだけでなく、与えられたテキストの分析にも重要なのです。
顧客や消費者とのインタラクションの感情を把握しようとする際、現在の最大のアプリケーションの1つは、ダッシュボードを作成して一定期間にわたる感情を監視することです。レビューや顧客とのインタラクションがあり、私のLLMがこれはポジティブ、これはネガティブと教えてくれる場合、一定期間にわたってこのポジティブまたはネガティブな感情を監視することが非常に重要です。つまり、全体的にネガティブなフィードバックと比べてポジティブなフィードバックが増えているのかということです。
また、機械学習やAIシステムは、訓練されたデータと同じくらい良いものです。おそらく、時間の経過とともにパフォーマンスが徐々に低下し、ネガティブなフィードバックが増加しているかもしれません。これは、モデルをファインチューニングし、再訓練してパフォーマンスを再び向上させる必要があることを示すシグナルです。
それでは、法律の世界により興味深い内容を話していただくJimにバトンタッチしたいと思います。お願いします。
はい、より興味深いというのは言い過ぎかもしれませんが、確かに重要な内容です。まず、質問が来ていたことについて触れておきたいと思います。テキストで回答するボタンをクリックするつもりでしたが、間違ったボタンをクリックしてしまいました。質問は「最初の部分に参加できない人がいるため、この録画は後でメールで送られてくるのか」というものでした。はい、このウェビナーの後にメールで送られます。今日の午後か、遅くとも明日の早い時間には、YouTubeの動画へのリンクと一緒にメールが届くはずです。もし何らかの理由でメールが届かない場合は、私たちのYouTubeチャンネルで見ることができます。
では、法的倫理と生成AIに話を移しましょう。IP実務における生成AIの具体的な理解について話し、そして職業責任に関する規則への適合について見ていきます。ABAモデル規則を見ていきますが、これは50州中49州、そしてコロンビア特別区とUSPTOで採用されています。カリフォルニア州は完全には採用していませんが、少し異なる形で採用しており、ABAモデル規則は大きな影響を与えています。
AIは、特にIP実務において、法律での使用が続けて成長しています。生成AIには多くの異なる使用例があり、これらは今後も増え続け、出力も改善され続けるでしょう。しかし同時に、多くの間違いを犯して問題を起こす前に、AIの異なる使用方法について振り返り、モデル規則と照らし合わせて考える良い機会です。
生成AIをIP実務で理解し、その利点と倫理的考慮事項について話していきましょう。IPの文脈では、Dr.レガエが話したように、生成AIは幅広いアプリケーションを持つツールです。大量のデータを使用し、テキスト、画像、ビデオデータ、音声などの出力を生成できます。
考慮すべき最初のリスクは、過度の依存と、意図的であれ偶発的であれ、ツールに組み込まれた潜在的なバイアスです。バイアスについて考える時、現代では多様性、公平性、包摂性の問題を最初に思い浮かべますが、それらは妥当な懸念です。しかし、生成AIモデルにそれらのタイプの要素を組み込む同じ原則が、出力に他の方法でもバイアスを引き起こす可能性があります。
例えば、特定のタイプの決定や事実パターンの過度の表現などです。ツールはこれらを拾い上げたり、モデルが特定のタイプのデータの過度の表現や過小表現に基づいてこれらのバイアスを表現したりする可能性があります。そのため、ツールやモデルが、あなたが求めている答えを完全に、または広範に得られない可能性があることを覚えておいてください。
生成AIは素晴らしいツールになり得ますが、それはあなたを弁護士として置き換えるものではありません。自分の経験や判断を使い続ける必要があります。ツールの出力にどれだけ依存するかについて慎重である必要があります。従来の調査方法、それが先行技術であれ、Northwestern Reporterであれ、何であれ、ハードコアな研究を行う必要があります。
従来の仕事のやり方をAIだけで置き換えないでください。しかし、実務では生成AIを多くのことに使用できます。これらは単なる例です。文書の生成や合理化、IP問題の準備と研究、特に特許出願に関する技術について使用できます。文書の比較や要約なども可能です。多くの素晴らしい利点があり、仕事の方法を本当に迅速化できます。
次のスライドに移りましょう。AIは、あなたの仕事をダブルチェックし、評価することを可能にします。例えば、クライアントが気に入らない癖を持っている場合、クライアントに送る前に、その癖に照らして作業成果物を評価できます。そうすることで、早い段階でそれらのハードルを乗り越え、以前に言われたことでクライアントを苛立たせることを避けられます。
また、より広範な判例や先行技術、または何を試みているにせよ、それを考慮に入れることができます。大量のデータを考慮に入れ、効率的かつ徹底的に行うことができます。しかし、他の新技術と同様に、特定のリスクと考慮事項があります。
頭を砂に埋めることなく、問題に取り組み、オープンな心を持ち続けてください。また、1人のクライアントが生成AIを使用しないと言っても、それがすべてのクライアントにとって正しい答えとは限らないことを覚えておいてください。
すでに生成AIを使用している場合は素晴らしいことです。生成AIを使用していないと思っている場合、おそらく間違っています。Tomが以前指摘したように、スペルチェックを使用している場合、それは論争の余地なくAIの一形態です。また、携帯電話を使用していて、次に入力したい単語を推奨し、それをポップアップで表示して選択している場合、AIを使用していることになります。気づいていなくても、おそらくすでにAIを使用しているのです。これは考慮すべき重要な点です。
質問がありました。「AIは私たちの入力で訓練されているため、社内で開発されていないAIツールを使用することで、特権や機密性の放棄があるのでしょうか?」この答えについては、後ほど触れますが、基本的には「いいえ」です。ただし、単純なOpenAIのChatGPTタイプのサブスクリプションを使用している場合は、確かに注意が必要です。
特権や機密性を侵害する可能性があります。なぜなら、入力を他のモデルの訓練やプロンプトエンジニアリングに使用されているかどうかが不確かだからです。ゼロ保持APIを確保し、必要な機密性を考慮し、データが処理される場所と、契約下で実際に処理されている場所を考慮する必要があります。入力内容によっては、輸出管理の問題に巻き込まれる可能性もあります。
また、Jimさん、モデルトレーニングと、一般モデルの基本的なトレーニングの違いを認識することも重要だと思います。これは、あなたの会社や他の会社が使用する一般モデルのことですが、プロンプトに入力されるデータは、よりセッションベースまたは一時的なものになります。理想的には、テンプレートのトレーニングなど特定の目的がない限り、プロンプトを再トレーニング材料として使用しないサービスと協力することになります。
多くの場合、すでにトレーニングされたモデルを取り、プロバイダーが適切な保護措置を整えている限り、セッション中にのみ関連する可能性のある機密コンテンツを使用できます。そうすることで、機密情報を共有したり、さらに広めたりすることなく、必要なものを得ることができます。
その通りです。Black Hillsでは、顧客に提供するAIツールを持っています。これについては後ほど詳しく話しましょう。他にもいくつか質問がありますが、モデル規則について少し進めてから、それらの質問に戻りたいと思います。
次のスライドに移りましょう。先ほど述べたように、ABAの職業行為モデル規則は、カリフォルニア州を除く49州、コロンビア特別区、USPTOで採用されています。カリフォルニア州も精神的には取り入れています。
次のスライドをお願いします。情報の機密性について、これは規則1.6です。先ほどの最初の質問に対する回答でも触れましたが、機密情報を安全でないシステムに入力することは避けてください。AIツールを探す際には、それだけでなく、OpenAIやClaude、その他のAIツール提供者から得られるサブスクリプションのタイプも考慮してください。
もう1つのアプローチは、Black Hills AIのような企業と協力し、私たちのAIツールを使用することです。私たちは、パートナーと協力して、ABAモデル規則やクライアントの機密性要件に準拠した製品を市場に投入しています。輸出管理の問題がないことを確認するフレームワークも設定しています。
同時に、ゼロ保持APIを備えたシステム、Tomが話していたようなセッション間のデータの分離、そしてクライアント間のデータの確実な分離を探してください。私たちのツールでは、アップロードしたデータは他のプロジェクトでは使用されず、モデルのトレーニングにも使用されません。特定のプロジェクトやセッションのコンテキストでのみ使用されます。アップロードしたものや提出したプロンプト、受け取った出力とのみやり取りを行います。
データの漏洩や、必要以上のデータの永続性を避けたいと思います。また、ツールが適切なセキュリティプロトコルを持ち、適切に実装され、維持され、ベストプラクティスに従っていることを確認してください。
同時に、クライアントが指定した義務やクライアントとの契約書の条件を必ず評価してください。また、特定の機密性要件への準拠が不確かな場合、データを匿名で提出したり、特定の当事者や紛争が特定できないような方法で提出したりすることも可能です。そのようなデータは、プロンプトを提出する際に難読化することができます。
また、自社のスタッフであれ、契約者であれ、私たちのような企業や他のAIツール供給者のIT専門家に、セキュリティプロトコルなどについて相談することもできます。
さて、モデル規則1に移りましょう。能力に関してですが、AIテクノロジーとその限界、そして使用しているツールの利用規約を理解していることを確認してください。利用規約には注意が必要です。特定のタイプのサブスクリプションを持っていると思い込んでいても、実際に正しいものを持っているか確認し、問い合わせる必要があります。AIツールの利用規約と制限を理解してください。
AIテクノロジーを理解することについては、すでに多くの方が理解されていると思いますし、Dr.レガエの先ほどの説明でその仕組みについての理解が深まったと思います。しかし、覚えておいていただきたいのは、AIツールは回答を近似するということです。最も正しいと考える回答を生成しますが、それが正しい回答であるという意味ではありませんし、正しい回答の全体を網羅しているわけでもありません。
これらの近似された回答は素晴らしく、非常に洞察に富んでいる可能性があり、自分では思いつかなかった視点での回答を得られるかもしれません。また、「5つの考慮事項は何か」「この質問に対する5つの回答方法は何か」といった形で5つの回答を求めることもでき、非常に素早く回答を得られます。しかし、それがすべての回答を網羅しているわけではありませんし、それぞれの回答が完全で徹底的、あるいは必ずしも正確であるとは限りません。
自分の経験、知識、そして勤勉さを、取り組んでいる作業に適用する必要があります。回答を絶対的な真理として受け入れることはできません。ここにどこかのスライドがありますが、「AIはあなたに取って代わることはありませんが、AIを使用する人があなたに取って代わるでしょう」という言葉があります。これは非常に慎重に心に留めておく必要があると思います。おそらく以前にも聞いたことがあるかもしれません。
少なくとも現時点では、AIツールは弁護士の代替にはなりませんが、弁護士の生産性を大幅に向上させることができるツールです。また、Jimさん、能力に関してもう1つ重要なのは、これらのツールがどこで使用されているかを理解することです。先ほど述べたように、ChatGPT、AnthropicのClaude、Perplexityなどのツールは、AIツールを使用していることが非常に分かりやすいですが、この種のテクノロジーは他の場所でも増えています。
スペルチェックは良い例です。文法チェック、メールでの返信の提案、このような機能は、特にクライアントがAIツールの使用や不使用に関する特定の要件を持ってくる場合、技術能力に関するこれらの要件を持つ弁護士として重要です。使用しているソフトウェアに組み込まれている機能を使用する能力を放棄してしまうことは避けたいからです。これらの契約上の詳細は、私たち弁護士にとってはより高い基準での理解が求められます。見落としてはいけないものです。
このツールを法的専門知識や技術的知識と統合して考える必要があります。また、これらのツールが正確であると信頼したくなる誘惑がありますが、それに抵抗してください。あなたの文書で探しているものであることを確認し、単純なコピー&ペーストではなく、回答を確認するための精査を行ってください。
また、専門外の分野でこれらのツールを使用する誘惑もありますが、本当に素晴らしい出力が得られたとしても、それが専門外の場合は、その分野の専門家に相談したり、判例集を引っ張り出したり(今日ではオンラインで行いますが)、適切な回答を得るための追加の調査を必ず行ってください。単に正しく聞こえるからといって、必ずしもそれに頼らないでください。
ただし、同時に、場合によっては安心のためだけに必要な場合もあります。クライアントへの直接的なアドバイスには使用しない何かかもしれませんが、簡単で素早い回答が必要な場合、ツールが十分な回答を提供してくれるかもしれません。しかし、クライアントの権利に影響を与えることに依存する場合は、必ず追加の調査を行ってください。
1枚前のスライドに戻りましょう。そこでの話を終えていませんでした。合理的な勤勉さと迅速さについて、生成AIツールは物事を非常に素早く行えるため、迅速さの面で役立ちます。しかし、生成AIが提供する近似的な回答に照らして、レビューや改訂、独立した研究や精査がなければ、問題となる可能性があります。それを心に留めておいてください。
さて、次のスライドに移りましょう。これらのツールを自社内で実装する際には、AIの使用に関するポリシーを確立し、AIの倫理的および実践的側面に関するトレーニングを提供してください。チームがこれらのツールを使用する際には、彼らが何を得ているのかを理解していることを確認してください。これは法的問題に関する絶対的な権威とのQ&Aではありません。
生成AIツールを使用して特許出願を起案する場合、特許出願全体または使用した部分を必ずレビューしてください。同時に、より若手の弁護士であり、これらのポリシーに従い、特定の決定について監督弁護士に委ねている場合、作業成果物をレビューし、正しいと考え、上司に提供し、彼らがレビューしても何も言わない場合、彼らがレビューしたことを確信している場合は、彼らの言葉を信頼してある程度の安全地帯があります。
しかし、法律事務所では、パートナーや経営陣がこれらのポリシーを実施し、遵守を確保する必要があります。ただし、繰り返しになりますが、これはAIや生成AIを使用するなということではありません。日常の業務にAIツールを統合する方法を見つけ出すことは非常に賢明だと思います。生産性を大きく向上させ、クライアントの縮小し続ける、あるいは停滞している予算に対応することができます。
ただし、これらの規則に従い、倫理的考慮事項を考慮に入れ、クライアント固有の要件を考慮に入れた方法でツールを使用していることを確認し、それらのポリシーを自社内だけでなく、利用するベンダーについても監視してください。
これらのツールを使用する際には、クライアントとの関係で考慮すべきことがいくつかあります。クライアントの指示とポリシーの遵守を確保し、クライアントにテクノロジーがどのように使用されるかを説明することを検討し、利点とリスクについて話し合うことを検討し、クライアント契約や委任状にAIまたは生成AIの使用に関する文言を追加することを検討してください。
現在使用していない場合でも、その文言を今追加することは賢明かもしれません。なぜなら、近い将来使用を開始するかもしれないからです。これらのツールについて覚えておくべき1つのことは、現状より悪くなることは決してなく、常により良くなっていくということです。現状より悪くなることは決してないと言うのは少し変な言い方かもしれません。なぜなら、これらのツールは現在でもかなり優れており、市場には非常に強力で大きな助けとなる多くのツールがあるからです。
クライアントから受け取った指示、要件文書やRFPなどに記載された指示を確認し、それらの指示に従っていることを確認してください。規則1.4と1.2が適用されますが、規則7.1も参照してください。サービスについてのコミュニケーションでは、使用する生成AIツールの能力と制限を含め、誠実でなければなりません。
次のスライドでは、クライアント契約や委任状に段落を含めることを検討すると述べました。この段落のコピーが必要な場合は、メールでお送りしますので、ご連絡ください。自由に使用し、修正し、ひどいと言っていただいて構いません。J.halenbeck@blackhills.aiまでメールをいただくか、support@blackhills.aiまでメールをお送りください。私のメールアドレスはこのプレゼンテーションの最後に表示されます。
繰り返しになりますが、クライアントだけでなく、裁判所や特許庁、商標庁などの様々な審判機関に対しても義務があります。弁護士がAI生成の文書を提出し、Blue Bookに準拠しているように見えた引用が完全に架空のものだった事例についてはご存知かと思います。もちろんそれは避けたいところです。それは明白な例ですが、AIツールの使用時に注意が必要な理由を示す保証された例であり、AIツールが絶対的な回答ではなく、近似的な回答を提供した結果です。
審判機関への提出前にAIの出力の正確性を確認し、生成された引用、法的理論、事実の主張を検証してください。AIツールが、必要だと考える方法で事実や理論、議論を埋めることは可能です。情報がない場合、それらを生成する可能性があります。ここでも、AIトレーニングデータの潜在的なバイアスに対処する必要があります。
これらは人口統計学的なものかもしれません。バイアスについて話す時に最初に思い浮かぶのはそれでしょう。しかし、生成AIは確率的モデリングに基づいているということを覚えておいてください。基礎となるトレーニングデータに問題がある場合、出力は同じ問題の影響を受けることになります。
AIの使用を怖がらせることが私の目的ではありません。慎重にAIを受け入れ、テクノロジーがどのように成長し、広がり、改善されているのか、そしてその影響について学び続けてください。自社や会社内のポリシーに注意を払い、AIの新しい展開や、裁判所、特許庁、職業規制事務所からの進化する意見やガイダンスに適応してください。
しかし、倫理的考慮事項とクライアントの利益を優先してください。クライアントを常に第一に考え、倫理とクライアントを常にすべてにおいて最優先してください。学び続けてください。
では、質問を見てみましょう。生成システムのゼロ保持をどのように設定するかという質問がありました。これについては簡単に触れましたが、より詳しい情報が必要な場合は、メールをいただくか、お電話をいただくか、営業担当者にご連絡いただければ、具体的なケースについて話し合うための電話会議を設定できます。sales@blackhills.aiまでメールをお送りください。
次の質問はライブで回答しました。アプリケーションにアップロードされた機密データは、処理中のアクセスからどのように保護されているのかという質問については、より詳細な技術的な質問なので、別途詳しい話し合いを持つことをお勧めします。
簡単な回答としては、同様の機密情報の転送に使用される業界標準のhttpsの暗号化通信技術を使用しています。今日のシステムやネットワーク間での転送に使用されているものと同じです。
そうですね。移動中のデータは暗号化され、保存中のデータも暗号化されています。問題ありませんが、別の電話で詳しく話し合うことができます。
Gen特許分析を使用する際、データは適切に保護されているか、機密文書を分析する場合、どの程度効果的に開示されているかという質問もありました。これも具体的なセキュリティに関する質問なので、オフラインで対応させていただきますが、Tomが言ったように、業界のベストプラクティスに従い、非常に安全なシステムでデータを処理しています。また、サーバーの場所などについても意識しています。より詳しい話し合いをご希望の方は、ご連絡ください。
次のスライドに移りましょう。私のメールアドレスが表示されていますので、メモしていただければ、セキュリティについての詳細な話し合いを設定できます。スライドについて質問がありましたら、お答えいたしますし、他に質問がありましたら、それにもお答えします。
さて、Dr.レガエとTomには本日の通話に参加していただき、ありがとうございました。このウェビナーシリーズ「知性と知能」の次回は9月に予定しています。そのお知らせをお待ちください。また、先ほど申し上げたように、このウェビナーの動画へのリンクを送らせていただきます。ありがとうございました。
みなさん、ありがとうございました。
コメント