最近、「AIに法律相談したら、〇〇って結果が出たんだけど、これって本当?」
というご質問をいただく機会が増えました。
便利なAIですが、法律相談に使うとなると、ちょっと注意が必要です。
実際に相談をお受けしていて、「うーん、そこじゃないんよなぁ…」と感じるケースが少なくありません。
なぜ、そんなことが起こるのでしょうか?
私の感じる「落とし穴」をいくつかご紹介します。
1.AIが、しれっと「嘘」をつくケース
AIは平気で「嘘」をつくことがあります。
- ありえない判例: 例えば、「昭和2年の最高裁判決では~」なんて言い出したら、嘘です。戦前に最高裁はありません。当時の最高裁判所にあたる機関は「大審院」ですね。
- 架空の法律・条文: もっと巧妙なのは、実在する法律の名前を使いながら、条文番号や内容をデタラメに引用するパターン。
「日本国憲法200条によれば~」とか、出てきたら、私は笑います。
(ちなみに、日本国憲法は附則を含めても103条までです!)
AIは、それっぽい情報を生成するのは得意ですが、その情報が事実かどうかは人間が検証する必要があります。
2.自分に「都合のいいこと」だけ聞いてしまうケース
人間は誰しも、自分に都合よく物事を考えがちです。
「こうだったらいいな」という期待で胸を膨らませて、AIに質問されるのではないでしょうか。
AIは基本的に、聞かれたことに対して答えます。
あなたが聞かなかった「都合の悪い可能性」や「潜在的なリスク」については、スルー・無視してしまうかもしれません。
もちろん、AIがリスクを指摘してくれることもあります。
しかし、「見たくない情報」は無意識に読み飛ばしてしまうのが人間です。
結果として、AIの回答を鵜呑みにして行動すると、痛い目にあうことがあるかもしれません。
3.答えは部分的には正しいが、全体から見るとマズいケース
これが一番厄介かもしれません。
AIの回答する内容自体は、法律の一部分だけを見れば間違っていない。
しかし、あなたの状況全体に当てはめてみると、かえって不利になったり、
別の問題を引き起こしたりする可能性がある、というケースです。
いわゆる「木を見て森を見ず」の状態ですね。
- 木: 法律の断片的な知識としては正しい。
- 森: 全体的なバランス、他の法律や制度との兼ね合い、長期的な影響などを考えると、その選択は最適ではない、どころか損する。
この「全体最適」の視点は、専門家でないとなかなか気づけない部分です。
部分的に正しい情報だけを信じて行動すると、「全体最悪」の結果を招きかねません。
まとめ:AIは優秀なアシスタント、でも最終判断は…
AIは、情報収集のきっかけや、あたりをつけたりする上で、非常に便利なツールです。
しかし、法律相談、特にご自身の権利や財産に深く関わるような問題については、AIの回答だけで判断するのは危険が伴います。
弁護士に実際にご相談されることをお勧め致します。