
知性と知能:第1回|AIに仕事を奪われたい
13,622 文字
皆様、ブラックヒルズAIのウェビナー「知性と知能」にご参加いただき、ありがとうございます。この回の録画と発表資料は、ブラックヒルズAIのYouTubeチャンネルとウェブサイトで公開されます。ご質問がございましたら、Zoomのメニューにあります Q&A機能をお使いください。LinkedInでのフォローと、その他のウェビナーについてはブラックヒルズAIのウェブサイトをご覧ください。それではジムに進行をお渡しします。
シドニー、ありがとうございます。みなさん、こんにちは。本日は知性と知能シリーズの第4回ウェビナーにお集まりいただき、ありがとうございます。本日は再びマニ・レゲ博士をお迎えし、ブレンダン・キャヴニー博士、そしてFXルークさんにもご参加いただいています。
レゲ博士はミネソタ州セントトーマス大学の大学院ソフトウェア・データサイエンス学科の教授兼学科長で、応用人工知能センターのディレクターを務めています。ビッグデータ、機械学習、人工知能技術に関する著者、メンター、思想的リーダー、そして頻繁な講演者でもあります。教育と研究に携わる傍ら、ブラックヒルズAIを含む様々な業界をリードする組織に対して、機械学習とAIの実践、革新的なデータサイエンスアプローチについてコンサルティングやメンタリングを行っています。
ブレンダン・キャヴニー博士はデータエシックスLLCのCEO兼主任コンサルタントで、データガバナンス、分析、プライバシーの分野で専門的なコンサルティングサービスを提供しています。また、セントトーマス大学工学部のソフトウェア工学・データサイエンス学科でAIエシックスの非常勤教授も務めています。
FXルークさんは現在、deipのCEOおよびkey technologyのCEOを務めています。17年以上にわたる起業家として、世界最大級の企業が使用するAIソフトウェアの構築に関する強力な専門知識をお持ちです。
また本日は、ブラックヒルズリニューアルズの社長でブラックヒルズAIの最高技術責任者であるトム・マーロもご参加です。私はジム・ヘンクで、ブラックヒルズAIの社長兼CEOを務めています。
本日は、レゲ博士にAIの新しい使用法、特にAIバイアスと雇用への影響についてお話しいただきます。キャヴニー博士にはAI倫理とAIの開発・使用について、そしてFXさんには法律、特に知的財産分野でのAIの実践的な応用についてお話しいただきます。
では、レゲ博士、お願いいたします。
ジムさん、ありがとうございます。みなさん、こんにちは。これまでのウェビナーでは、大規模言語モデルやその能力など、AIの様々な側面についてお話してきました。今年最後となる今回のウェビナーでは、アルゴリズムバイアス、雇用への影響、そして人工汎用知能にどれだけ近づいているかについてお話ししたいと思います。
まずバイアスについてお話しします。数年前、研究者たちがウェブ上のテキストを大量に収集し、初期のチャットボットを作成した例から始めましょう。「男は女に対して、父は何に対するか」という質問に対して、「母」と答えました。これは正しい応答です。「男は女に対して、王は何に対するか」という質問には「女王」と答えます。
しかし、「男はコンピュータープログラマーに対して、女は何に対するか」という質問には「主婦」と答えてしまいました。これは、学習に使用されたテキストに存在していたステレオタイプを学習してしまったためです。AIは与えられたデータと同じくらい良くも悪くもなります。
これは様々な形で現れます。例えば、多くのHRシステムは男性に偏っています。技術分野では女性より男性の方が多く働いているため、モデルは自動的にそれを学習すべき属性だと考えてしまいます。顔認識システムは、肌の色が濃い人の認識に苦労することが示されています。
クレジットカードの承認に関して、数年前にAppleのクレジットカードは、同じ夫婦でも妻より夫に対して高い与信限度額を設定していました。これらは全て、モデルがデータから何かを学習し、結果として不公平な扱いをしてしまう例です。
顔認識システムの問題について、具体的な研究例をご紹介します。この研究では、Microsoft、中国のFace++、IBMなどの異なるAIシステムが、提示された性別をどれだけ正確に認識できるかを調査しました。上部には肌の色の異なる6つのプロファイルがあります。
表の数字はエラー率を示しています。例えば、タイプ1でMicrosoftの1.7%のエラーは、性別認識が非常に良好で、98.3%の精度があることを示しています。エラー率が低いほど、モデルの性能が良いということです。
表を右に進むにつれて、つまり肌の色が濃くなるにつれて、システムは性別の認識に苦労しています。最後の列では46.5%のエラー率となっています。これはAIシステムに存在するバイアスを示しています。これを改善する取り組みは継続的に行われていますが、多くの場合、AIシステムの初期バージョンでは、トレーニングセットにそのようなデータが適切に表現されていないため、こうしたバイアスが存在することがあります。
感謝祭の食事の際によく話題になるのは、AIが労働力や雇用にどのような影響を与えるかということです。現代のAIには2つの波がありました。第1波は2012年頃で、主にディープニューラルネットワークによるものでした。当時の調査や研究では、製造業や倉庫作業など、主にブルーカラーの仕事が影響を受け、場合によっては置き換えられる可能性があることが示されていました。
2年前に始まった生成AIによる新しい波では、新しい調査結果が出ています。このグラフのX軸は年収、Y軸はAIへの曝露確率を示しています。収入が高くなるほど、AIに曝露される確率も高くなっていることがわかります。
ここで重要なのは、AIへの曝露と、AIによる置き換えを区別することです。労働力の専門能力開発と再教育に投資しなければ、この曝露が置き換えにつながる可能性があります。
マッキンゼーの調査では、生成AIがどのような役割で最も収益を生み出せるか、企業が主にどこに注力しているかを示しています。AIエージェントを考えた場合、営業・マーケティングは自動化において大きな役割を果たすことができます。
R&Dの分野では、新しい研究が次々と発表され、要約が重要な役割を果たします。これは生成AIが非常に得意とする情報の統合と理解の分野です。ソフトウェアエンジニアリングでは、製品開発やコーポレートITにおいて、従来のコーディングからコードを生成し人間が検証する方向に移行しています。
さらに進んで、ソフトウェアエンジニアが大量のデータを収集してモデルを構築する必要さえなくなることも多くなっています。OpenAIやAzureなどの既存のAPIを呼び出すだけで済むようになっています。
例えば、感情分析を行う場合、「この顧客からのメールはポジティブかネガティブか」という判断を、過去のように大量のデータを収集する必要なく、そのテキストをOpenAIモデルのAPIに送信するだけで回答が得られます。実装にかかる時間も生成AIによって大幅に短縮されています。
カスタマーオペレーションでは、顧客がチャットボットと会話することに快適さを感じる場合が増えています。チャットボットは顧客とのやり取りの履歴を持っており、健康保険の保険料や年間控除額の確認など、人間と話すために待つ必要がありません。企業側から見ても、電話応対に人を配置するコストを大幅に削減できます。
この青い部分は、生成AIが最も大きな影響を与える領域を示しています。
また、この生成AIの波が社会の異なる層にどのような影響を与えるかも見てみましょう。このグラフが示しているのは、女性が高成長・高賃金の仕事で残念ながら過少代表されており、その結果、最もリスクが高いということです。
X軸は左から右に向かって賃金が上がり、Y軸は上に行くほど雇用成長の可能性が高くなります。理想的には、コンピューターエンジニアやマネージャーのように、この位置かそれ以上にいることが望ましいのですが、そこでは女性の割合が低くなっています。
医師の場合は女性の割合は高いものの、雇用成長の面ではそれほど高くありません。賃金は良好ですが、他の領域を見ると、賃金が低いか、雇用成長の可能性が低い状況です。
マッキンゼーの同じ研究から、社会の異なる層を見てみましょう。Y軸では、ラインより上が職を変える可能性が高く、下が低いことを示しています。賃金、教育、年齢、性別、人種や民族性によって分析しています。
最低賃金層の人々が最も置き換えのリスクが高く、教育面では大学の学位を持たない人々がリスクにさらされています。年齢では25-49歳はそれほどリスクがありませんが、50歳以上または18-24歳は置き換えのリスクが高くなっています。
性別では女性が最も置き換えのリスクが高く、人種や民族性では有色人種も同様にリスクが高くなっています。ただし、ラインより下にいるからといって完全に安全というわけではありません。
AIへの曝露は、何をしているかに関係なく誰もが経験することですが、スキルの再教育を行わなければ、置き換えのリスクが生じる可能性があります。
左の表は、異なる職務や職業において、生成AIによってどの程度自動化されるかを示しています。数値が高いほど、そのような分野の人々がより大きなリスクにさらされる可能性があることを意味します。
右の表を見ると、全体的な労働力では男性の方が多いかもしれませんが、特定の種類の仕事では女性の方が置き換えのリスクが高くなっています。例えば、事務・管理サポートでは71.9%が女性です。医療サポートも同様です。
これは社会として考慮し、AIによって置き換えられる可能性のある層を支援する方法を考える必要がある問題です。
Amazonが行った調査では、3,000人以上の従業員と多数の組織を対象に調査を行い、雇用者がAIスキルを持つ労働力を見つけることが非常に困難であること、適切なAIスキルを持つ人々はより高い給与を要求でき、実際に給与が上昇していることが分かりました。これは驚くべきことではありませんが、この調査で経験的データによって直感が裏付けられました。
雇用の話からAIの安全性、つまり責任あるAIの話に移りましょう。今やAIは誰もが利用できるようになり、ディープフェイクを作成することも非常に簡単になっています。
ここでモーガン・フリーマンのディープフェイクの短い例をお見せします。
[ディープフェイクのデモ音声再生]
有名人でなくても、ディープフェイクを作ることができます。私自身のディープフェイクを作成してみました。
[デモ音声再生]
残念ながら私はフランス語を話せませんが、私のAIアバターのMは話すことができます。中国語も同様です。視覚的なニュアンスはかなり正確に捉えられていますが、音声に関しては、これは約6ヶ月前に作成したものです。
2週間前に作成した私自身のAI生成音声を再生してみましょう。
[AI生成音声のデモ再生を行います]
また、曲を作ることもできます。ブラックヒルズAI向けに曲を作ってみました。皆さんも楽しんでいただけると思います。
[音楽再生]
このウェビナーを忘れてしまうほど曲を楽しまないでいただきたいのですが、この曲は非常に好評で、ブラックヒルズに電話すると最初にこの曲が流れるようになるそうです。
さて、人工汎用知能に近づいているのかという話がよくあります。2023年が生成AIのターニングポイントだったとすれば、2025年はAIエージェントの年になるでしょう。
ClaudeはAIがコンピューターを制御できるアプリケーションを開発しました。架空のデモでは、アント・イクイップメント社という顧客がベンダー申請フォームの記入を依頼してきました。必要なデータはコンピューター上の様々な場所に散らばっています。
Claudeにスプレッドシートを確認させ、機器がない場合はCRMに移動して追加情報を探すように指示します。データを収集したら、Claudeがフォームに記入します。
まず、Claudeは画面のスクリーンショットを撮り始め、アント・イクイップメント社がスプレッドシートにないことにすぐに気付きます。そこでCRMに切り替えて、目的の会社を検索します。
検索にマッチしたら、Claudeはページをスクロールしてフォームに必要な情報を探し始めます。そして、私が何もしなくても、Claudeが自動的に情報を転送し、フォームに必要な情報を入力して送信します。
この例は、人々が行わなければならない多くの単調な作業を代表するものです。これはAPIで利用可能で、人々が試すことを楽しみにしています。今後数ヶ月でさらに良くなることが期待されます。
Physical Intelligenceという会社は、人間の介入なしに乾燥機から衣服を取り出し、テーブルに運び、きれいに折り畳むことができる汎用ロボットモデルを発表する予定です。
今後数年以内に、約3万ドルで人型ロボットを購入できるようになる見込みです。掃除や洗濯物を畳むなど、家事を手伝ってくれるロボットです。
このような進歩を見ると、人工汎用知能(AGI)に近づいているのか、人類に対する存在論的リスクはあるのかという疑問が生じます。
人工汎用知能について、AIの第2の波が来る前は、知能と能力の面で人間に似たAIを作ることが目標でした。最近では定義が変わり、2年程度でAGIに近づくという話をよく耳にします。また、人間に近いAIを指す「人工超知能」という新しい用語も登場しています。
家事を手伝う人型ロボットのような一般的な自動化については、今後数年で実現するでしょう。しかし、人類に対する存在論的リスクはないと考えています。
重要なのはAIを制御し、社会に多くの利益をもたらすようにすることです。技術の進歩には常に両面性があり、メリットもあれば、適切に利用されない場合や悪用された場合にはネガティブな影響もあり得ます。
企業や国家など、単一の個人よりもはるかに強力な存在を人間が制御してきた経験があります。AIが人間よりも強力になったとしても、人間はそれを制御し、社会に多くの利益をもたらすようにすることができます。
実際、AIの基盤技術は、気候変動や次のパンデミック(願わくばないことを願いますが)、地球温暖化など、私たちが直面する多くの問題の解決に活用できます。AIは問題そのものではなく、解決策の一部となり得るのです。
では、次の講演者のブランドン・キャヴニー博士にバトンを渡したいと思います。
レゲ博士、そしてトム、ジム、FXの皆様、本日はこのような場でお話しする機会をいただき、ありがとうございます。
では、問題について、より多くの問題についてお話ししましょう。これらの問題は、AIソリューションの開発に関わる組織や個人、またはその利用者の両方に関係します。
本日お話しする2つの主な問題は、両方のグループに関連します。まず、複数のMLEのAI分析活動を1つのソリューションに統合することです。
欧州連合は最近、EU AI法を可決しました。これは、レゲ博士が先ほど述べたように、基本的権利を侵害するため禁止すべきAI処理行為について、人間の介入の始まりを明確に示した世界初の包括的な法律です。
この講演は米国で行われていますが、欧州やその他の地域では、プライバシーは人権として捉えられています。これはAIデータ処理を含む様々な処理活動に影響を及ぼし、どのようなガードレールを設けるべきかという考えを促します。
これは第2の問題、つまりプライバシーを保護する能力の欠如につながります。第1の問題に関して、欧州連合ではプライバシーは人権です。米国では、これは発展途上の問題です。
米国のプライバシー法はより分散化されており、異なるセクターで進化し、消費者空間でより顕著になっています。これにより、一般の人々の間で理解が深まっています。
AIの活動について考えてみましょう。特に、この1週間で生成AIツールを使用した方は、どのようなツールを使用したか考えてみてください。もし使用していない場合は、なぜ生成AIツールを使用しなかったのか、積極的な理由があるのか考えてみてください。
生成AIツールを使用した方は、プロンプトを書いたり質問を入力したりする際に、自分自身に何か制限を設けていましたか?
あなた自身の自己規制について考えると、欧州連合は基本的に足跡を示し、プライバシー法と同様に、国際的な実践基準がこれに従い始める可能性が高いと言えます。
職場や学校での感情認識、行動操作、ソーシャルメディアからの顔認識のための画像スクレイピング、生体情報の分類など、これらはすべて禁止されています。
問題は、これらのツールがAI処理ソリューションのすべてとして提示されていることです。消費者空間では、ツール自体は推進していなくても、ユーザーが禁止されているような処理活動に従事している可能性があります。
第2の問題は、プライバシーの基本的権利を管理する能力がさらに大きな問題となっています。ブラックボックスの問題について話す時、私は舞台裏で何が起こっているかの多くを知っていますが、完全に全てを説明することはできません。
データで何が行われているのかも完全には説明できません。これは、忘れられる権利、消去権という基本的権利に関して大きな問題を引き起こします。これは欧州連合で法制化され、米国でも法制化されつつあります。
会社が個人について収集したすべての情報を提供しなければならないツールセットがありますが、生成AIを使用する場合、それが明確でない可能性があります。データは存在するかもしれませんが、そのデータが使用されたか、第三者、第四者、第五者に渡されたかが完全には明確でない可能性があります。
ユーザーとしてどのように対処すればよいのでしょうか?生成AIツールを使用してデータを処理し、誰かが「私についてどのようなデータを処理したか知りたい」と言った場合、「これが処理したデータです」と答えることはできます。
それは他の誰かと共有されましたか?第三者について説明することはできますが、「この日付までのあなたに関するすべてのものが削除された」と言うことは、要求されているにもかかわらず、できないでしょう。
これらはすべて、倫理的な構造の中で検討される必要がある問題となります。なぜなら、法的に問題がない地域でも、人々の認識が規範となってきているからです。認識は規制の3倍の速さで進んでいます。
人々はどこかで法律になっていることを聞くと、それが自分のいる場所での法律だと思い込み、そうでないことを知ると、それがブランドや信頼の問題となります。
ここで私の話を終わりにしたいと思います。ありがとうございました。
ありがとうございます。これまでに1つ質問が来ています。最後にその質問に答えることにして、その間に他の方々からも質問がありましたら、画面上のQ&A機能を使ってお寄せください。
では、FXが法律分野、特に知的財産分野でのAIの実践的な応用についてお話しします。
ジム、レゲ博士、キャヴニー博士、非常に貴重なご意見をありがとうございます。私は現場からの具体的なフィードバックを共有したいと思います。
deipでは、IPの弁護士を支援するAIアシスタントを開発しています。これはWordに完全に統合され、準備、ドラフト作成、審査のワークフロー全体の時間を節約する助けとなります。
米国ではカーンやシューメーカーなど、欧州ではヤコビやPLなど、大西洋の両岸にクライアントがいます。興味深いのは、ワークフローに完全に統合されたアシスタントを作成できたことです。
このタスクを実行する際に時間を費やす場所で、摩擦を最小限に抑え、必要な場所で適切なツールのメリットを得られるようにしています。
また、大規模な法律事務所がこのようなツールを使用できるよう、適切なレベルのセキュリティと機密性を確保できたことも興味深い点です。
現在、私たちはtype twoとISO 271という最高レベルのセキュリティ認証を取得しており、トレーニングの改善や再トレーニングの目的でデータを保持・再利用することはありません。
クライアントにはモニタリング免除を保証しており、クラウドプロバイダーのAzureやdeipの誰もクライアントのデータにアクセスできません。そのため、クライアントは安心してデータの安全性を確保できます。
もう1つ興味深いのは、クライアントが共有するメリットです。当初の期待は時間の節約です。実際、このようなツールは時間の節約に役立ちます。
最も単純なアプリケーション、特にソフトウェアやAIアプリケーションでは、20%から50%の節約が可能です。これは分野や特許の複雑さによって異なりますが、かなりの節約になります。
この時間を最も興味深い部分、最も重要なセクションに再投資することで、最終的にクライアントにより質の高い仕事を提供することができます。
もう1つ興味深いメリットは、クライアントが報告するように、ドラフト作成や審査は知的に非常に困難な作業であり、AIのサポートを得ることで、最も困難な作業の10%から20%多く取り組むことができるようになることです。
最後に興味深い補完的なメリットは、人間は多くのミスを犯しますが、AIはスペルミスや情報の不整合などのエラーを起こさないことです。そのため、AIはレビューの段階でも時間を大幅に節約し、以前見られたエラーの90%を防ぐことができます。
具体的な使用例を共有しましょう。数日前、当社の大手クライアントの1つであるSLWのプリンシパル、アンドレ・マーとファイヤーチャットを行いました。SLWでは会社全体がdeipを活用して特許の起草と審査を行っています。
彼が最初に語ったのは、自動化とAIを積極的に採用することになった主な課題でした。需要とコストが増加する一方で、クライアントの予算が停滞していたため、いくらかの利益を回復する必要がありました。
もう1つの課題は、作業が非常に重労働であるため、弁護士の疲労を軽減することが重要なメリットです。また、IP実務に携わる若手弁護士が減少しているため、IP実務の将来を確実に構築できることも重要です。
最後の課題は、クライアントの期待が常に高まっていることです。予算の制約がある中で期待される品質を提供できることが重要です。
AIの主なメリットは、仕事の中で興味深くない、あるいはあまり興味深くない部分をAIに任せ、ドラフト作成と審査作業の最も興味深い部分により多くの時間を費やすことができることです。
また、フリーダム・トゥ・オペレート(FTO)や使用の証拠など、現在はあまり頻繁ではない新しいケースにも大規模に対応できる新しい可能性が開かれています。
弁護士たちは、知的な負担が軽減され、仕事がより楽しくなることで、ウェルビーイングが大きく改善されたと報告しています。そして、より短時間でより高品質な仕事を提供し、クライアントの期限に間に合わせることができます。
レゲ博士のお話を聞いて、枠組みはよく設定されていると思います。AIによる弁護士の置き換えのリスクは見ていませんが、AIを使用しない弁護士がAIを使用する弁護士に置き換えられる可能性はあると考えています。
実務家として、AIと人間の知能の補完性を理解し、これらのテクノロジーを活用する必要があります。これは新しいツールです。以前は紙のシートを使用し、その後Wordを使用し、昨日まではWordを使用していましたが、今日では生成AIを使い始めて仕事を楽にしています。
AIは膨大な情報から重要な洞察を見つけることが非常に得意です。例えば、特許で非常に技術的な発明について深い洞察を得ることができます。AIは疲労を感じない頼りになる補助的な頭脳のようなもので、何かを一から始める必要がありません。
実務家にとって、これらのツールの使い方を学び、慣れ、これらのテクノロジーによって強化されていると感じることは、本当に素晴らしい機会だと思います。より賢明な方法で仕事ができるようになります。
私が共有したことを少しまとめると、AIはアシストするためにあり、置き換えのリスクはありません。これらのツールを活用し始めることは緊急の課題です。なぜなら、ユーザー数が増加しているからです。
まだ始めていない方は、ぜひ始めてください。補完性を開発してください。つまり、ルーチンワークや比較的単純なセクションはAIに任せ、技術をより早く理解し、問題について考える新しい角度を見つけるためにAIを活用し、最終的により良い品質を提供してください。
そうすることで、自然と時間の節約分を批判的思考の開発に再投資し、より複雑な部分、より戦略的なセクションに時間を費やすことができ、仕事の専門家としてより優れた存在となり、最終的にクライアントにより良い価値を提供することができます。なぜなら、機械ができることは機械がやるようになるからです。
ありがとうございます、FX。それは本当に素晴らしかったと思います。質問が2つの形で寄せられています。匿名での質問なので、おそらく同じ方からだと思います。両方の質問を読み上げて、皆さんにお答えいただく機会を設けたいと思います。
1つ目の質問は「AIのコストと従業員削減による節約額を比較するとどうなりますか?」です。2つ目は同じ内容を別の形で表現したもので、FXさんが使用したスライドに関連して「特許出願のドラフト作成時間が50%削減されることと、AIライセンス料を比較するとどうなりますか?」というものです。
では、FXさんから始めて、その後レゲ博士とキャヴニー博士、そしてトムさんにもご意見をいただければと思います。
この質問を取り上げていただき、ありがとうございます。これは非常に重要な質問だと思います。私たちの考え方では、弁護士の平均時給は500ドルです。特許出願に20-25時間かかるとすると、時間を20%節約できれば、1回の出願で1,500から2,000ドル程度の節約になります。
これらのツールによる時間の節約は驚くべきもので、AIソリューションの投資回収がほぼ即座に行われます。当社のソリューション展開方法では、クライアントがROIを構築できるようサポートし、アプリケーションのコストがAIの改善に応じて進化するようにしています。
また、この質問に加えさせていただきます。AIのコストと従業員削減による節約を比較する際、金銭的な面だけでなく、ビジネスを失うコストも考える必要があります。
例えば、ある大手保険会社では、健康保険や生命保険に関する電話対応を人間のスタッフが行っており、1回の電話あたり10ドルのコストがかかっています。これは通話時間によって変動する平均値ですが、大きなコストです。
一方、同じ質問の少なくとも半分をチャットボットが答えることができれば、保険加入者である私が夜間に質問をしても、すぐに答えを得ることができます。つまり24時間365日のサービスが可能になり、保険会社側のコスト削減にもつながります。
しかし、もしその保険会社が提供するAIチャットボットが、以前の人間のように加入者のニーズに対応できなければ、ビジネスを失い始め、そこでビジネスを失うコストが発生します。
キャヴニー博士、何か付け加えることはありますか?
はい、それらの回答は素晴らしいと思います。私が付け加えられることは、まず、置き換える人々の役割が明確に定義されているか、それらの機能を置き換えるAIソリューションが何をするのか明確に理解されているか、しばらくの間並行して運用する必要があるのか、という点です。
これはコストに加算されます。また、サイバーセキュリティの観点から、その自動化が停止した場合の災害復旧プロセスやビジネス継続性プロセスはどうなるのでしょうか?
レゲ博士が話していた予見可能な要素だけでなく、その機能が突然利用できなくなった場合のビジネス継続性はどうするのか、もしそのサービスが存在しなくなり、異なる方法や異なる価格で提供されるようになった場合はどうするのか、といったコストも考慮する必要があります。
キャヴニー博士、それらは私たちがブラックヒルズAIのドケッティング事業で日々対処している問題です。自動化の異なる要素が停止した場合、お客様のケアを確実にする方法です。
私にもいくつか考えがありますが、まずトムさん、何か付け加えることはありますでしょうか?
コスト削減やお金の節約を目的としたAI自動化技術ソリューションを導入する際に重要なのは、そのテクノロジー、この場合AIが、ワークフローにどのように適合するかということです。
つまり、ツールを購入して経費節減を期待しても、それがワークフローにしっかりと統合されるまでは、AIツールから期待される時間の節約が必ずしも実現しないケースを見てきました。
これらの新しいテクノロジーを導入する際は、多くのコスト削減がこれらのツールから生まれる時間の節約にあるため、ワークフロー内で最も効果的に機能させる方法を十分に考える必要があります。その場合、その数字は実装方法によって大きく異なる可能性があります。
トムさん、それはとても良い指摘ですね。ブラックボックスを購入しただけでは、所有や保有するだけではお金を節約できません。統合が必要で、その統合には日々の仕事の方法の修正も含まれます。そうしないと、ブラックボックスの調達は節約を実現せずに、単に経費を増やすだけになってしまいます。
他に質問がありましたら、お寄せください。もしなければ、私からこのように締めくくりたいと思います。
これらのAIツールは、生産性を向上させる能力を提供します。以前にも話しましたが、皆さんの中にはお聞きになった方もいるかもしれませんが、過去20年ほど、特許出願の準備と審査の予算は比較的横ばいでした。
基本的に、弁護士や法律事務所が長年にわたって獲得した効率性は、クライアントの予算削減や横ばいによって吸収されてきました。つまり、弁護士はより多くの仕事をする必要があるか、営業費用が上がる中で同じ量の仕事をより短時間で行う必要があり、同時に一部のクライアントは同じ予算で、あるいは場合によってはより少ない予算でより多くの仕事を求めています。
何かを変える必要がありますよね。事業運営のコストは上がり、子供の学費も上がります。より多くのお金を稼ぎたいと思っても、請求は横ばいのままです。
この約束の1つは、人生をもう少しコントロールできるようになることだと思います。これまでの唯一の解決策は、より多くの時間働き、請求時間を増やして収入を増やし、自分自身や事務所のためにより多くのお金を稼ぐことでした。
8-10%の生産性を獲得できれば、それはかなり控えめな向上ですが、悪くありません。AIツールがそのような生産性向上を支援できると考えるのは非現実的ではありません。たとえ5%だとしても重要です。
年間で見ると8%は1ヶ月に相当します。8%のパフォーマンスまたは生産性向上を得られれば、1ヶ月分の時間が戻ってきます。その時間をより多くの請求に使うことも、土曜日の仕事を減らしたり、休暇を取ったりすることもできます。
これはあなたの健康にも、家族生活にも、仕事の内外の関係にもよい影響を与えるでしょう。ストレスが少し軽減されるかもしれません。
AIには、仕事の質を向上させ、効率を高めるだけでなく、ライフスタイルも改善する可能性があると思います。AIをライフスタイル改善ツールとして売り込んだり描写したりしたくはありませんが、生産性を向上させ、仕事の質を高めることができれば、これらの付随的な利点も生まれ、その価値を過小評価すべきではありません。
AIツールを使えば、助けになるでしょう。まだ使い始めていない方は、ぜひ試してみることをお勧めします。私が定期的に話をする人の1人は、「なぜAIを使わないのか」と言います。
日々の仕事で使わなくても、その習熟度は必要になるでしょう。AIは悪くなることはなく、良くなるだけです。最終的には、あなたが満足するレベルに達し、それが仕事に統合する時期となるでしょう。
仕事にまだ使用していなくても、これらのツールを使い続け、慣れ親しむことをお勧めします。
コストに関して、特許出願のドラフト作成時間が50%削減されることとライセンス料を比較した場合、ツールに慣れ、ワークフローにより統合していくにつれて、パフォーマンスの向上は時間とともに増加していきます。
より良くなる一方です。何かの作業でAIを早めに取り入れれば取り入れるほど、効率が上がり、最終的にはより高い生産性につながるでしょう。
長くなりましたが、ご参加いただき、ありがとうございます。レゲ博士、キャヴニー博士、フランソワ・グザビエ(FX)さん、トムさん、本日はありがとうございました。
他に質問やコメントがなければ、お時間をいただき、ありがとうございました。
みなさん、ありがとうございました。
コメント