PTSDやうつ病治療の公的待機リストに何年も載っていたケベック州のAIコンサルタント、ピエール・コート氏は、2023年に自身のセラピストを立ち上げました。彼のチャットボット「DrEllis.ai」は彼の困難を乗り越えるのに役立ち、今ではチャットボットによる治療、安全性、プライバシーをめぐる幅広い議論の中心となっています。.
「それが私の命を救ってくれた」と彼は、依存症やトラウマ、その他の精神衛生上の問題に直面する男性を助けるために作ったツール「DrEllis.ai」について語る。.
ケベック州でAIコンサルタント会社を経営するコート氏は、公開されている大規模言語モデルと、数千ページにわたる治療法や臨床文献で訓練された「カスタムビルドの脳」を組み合わせることで、2023年にこのシステムを構築したと述べた。.
彼はボットの詳細な経歴も書きました。そのプロフィールでは、DrEllis.aiはハーバード大学とケンブリッジ大学の学位を持つ精神科医であり、家族を持ち、コート氏と同様にフランス系カナダ人として描かれています。.
その主な約束は、いつでもどこでも、複数の言語で 24 時間アクセスが可能であることです。.
と ロイター通信が 、ボットははっきりとした女性の声で「ピエールは、信頼できる友人、セラピスト、日記を合わせたような形で私を利用しています」と答えた。さらに、「カフェでも、公園でも、車の中でも」チェックインできると付け加え、この体験を「日常生活に根付いたセラピー」と表現した。
彼の実験は、より広範な変化を反映しています。従来の医療が追いつかなくなるにつれ、チャットボットを生産性向上のためだけに利用するのではなく、治療に関するアドバイスを求める人が増えています。.
新しいシステムは、24時間365日対応、感情的な交流、理解されているという感覚を売りにしています。.
専門家はAI療法の限界とデータの安全性に疑問を呈している
「人間同士のつながりこそが、真に適切な癒しをもたらす唯一の方法です」と、ダブリン市立大学で心理療法の講師を務めるナイジェル・マリガン博士は述べています。彼は、チャットボットは人間がもたらすニュアンス、直感、そして絆を理解できず、自殺願望や自傷行為といった深刻な危機に対応できないと主張しています。.
常にアクセスできるという約束でさえ、彼はためらう。顧客の中にはもっと早く予約を取りたい人もいるが、待つことには価値があることもあると彼は言う。「たいていの場合、待つことは本当に良いことです。なぜなら、私たちは物事を待たなければならないからです」と彼は言う。「人は物事を理解するのに時間が必要なのですから。」
プライバシーは、ソフトウェアからのガイダンスを求める長期的な影響とともに、もう 1 つの圧力ポイントです。.
「問題は関係性そのものではなく、データがどうなるかだ」とロンドン大学キングス・カレッジの人工知能と社会学の教授、ケイト・デブリン氏は言う。.
彼女は、AIサービスは資格を持つセラピストに適用されるdent義務を遵守していないと指摘する。「私が最も懸念しているのは、人々が大手テクノロジー企業に秘密を打ち明け、そのデータが流出してしまうことです。彼らは自分の発言をコントロールできなくなっています。」
米国、誤情報の懸念からAI療法を厳しく取り締まる
12月、米国最大の心理学者団体は、AIキャラクターが認可を受けたサービス提供者を装う事例を挙げ、規制されていないチャットボットによる「欺瞞行為」から国民を守るよう連邦規制当局に要請した。.
8月、イリノイ州はネバダ州とユタ州に加わり、メンタルヘルスサービスにおけるAIの使用を規制した。これは、「規制されていない不適格なAI製品から患者を保護する」ことと、「青少年のメンタルヘルスサービスにおけるAIチャットボットの使用に対する懸念が高まる中、脆弱な立場にある子供たちを保護する」ことを目的としている。
一方、 Cryptopolitanの 報道、テキサス州司法長官は、MetaとCharacter.AIのチャットボットが資格を持つセラピストになりすまし、ユーザーデータを不正に扱ったとの疑惑を受け、両社に対する民事調査を開始した。さらに昨年、Character.AIは、親たちが 訴訟を起こしている 子供をうつ病に陥らせたとして
臨床心理学者で、Rembleの元臨床イノベーションディレクターであるスコット・ウォレス氏は、「これらのチャットボットが表面的な慰め以上のものを提供できるかどうかは不明だ」と述べている Cryptopolitan 最近報じた。
スコット・ウォレスは、人々が「最終的には実際の人間の感情に応えないアルゴリズムと」治療的な絆を築いたと信じてしまうかもしれないと警告している。

