セキュリティ専門家のBar Lanyado氏は最近、生成AIモデルがソフトウェア開発の世界において、意図せずして巨大なセキュリティ脅威に寄与している可能性について調査を行いました。Lanyado氏の調査では、憂慮すべき傾向が明らかになりました。AIは架空のソフトウェアパッケージを提案し、開発者は気づかないうちにそれをコードベースに組み込んでしまうのです。.
問題の解明
ここで問題となるのは、生成されたソリューションがAIによくある架空の名前だったことです。しかし、これらの架空のパッケージ名は、AIモデルを使ったプログラミングに苦労する開発者に、dentに提案されてしまいます。実際、Lanyado氏のように、架空のパッケージ名の一部は人名に基づいており、中にはそれを実際のパッケージに転用した者もいます。その結果、悪意のある可能性のあるコードが、実際の正当なソフトウェアプロジェクトに誤っdent混入してしまう事態に陥っています。.
この影響を受けた企業の一つが、テクノロジー業界の大手企業の一つであるアリババです。Lanyadoは、GraphTranslatorのインストール手順書の中に「huggingface-cli」という偽造パッケージが含まれていることを発見しました。実際には、Python Package Index (PyPI) に同名のパッケージが存在していましたが、アリババのガイドではLanyadoが作成したパッケージが参照されていました。.
持続性のテスト
Lanyado氏の研究は、AIによって生成されたパッケージ名の寿命と潜在的な悪用可能性を評価することを目的としていました。この意味で、LQueryは、これらの架空の名前が体系matic に推奨されているかどうかを理解するプロセスにおいて、プログラミングの課題と言語間の関連性について、それぞれ異なるAIモデルを実行しました。この実験では、有害な組織がAIによって生成されたパッケージ名を悪意のあるソフトウェアの配布に悪用するリスクがあることが明らかになりました。.
これらの結果は深刻な意味合いを帯びています。開発者が受け取った推奨に盲目的に信頼を置いていることを悪用し、悪意のある人物が偽のdentで有害なパッケージを公開し始める可能性があります。AIモデルでは、架空のパッケージ名に対してAIが一貫して推奨を行うため、リスクが増大します。こうしたパッケージ名は、開発者によってマルウェアとして取り込まれる可能性があります。**今後の展望**
したがって、AIがソフトウェア開発にさらに統合されるにつれて、AIが生成した推奨事項に関連する脆弱性を修正する必要が生じる可能性があります。そのような場合、統合が提案されるソフトウェアパッケージが正当なものであることを確認するためのデューデリジェンスを実施する必要があります。さらに、ソフトウェアリポジトリをホストするプラットフォームは、悪意のある品質のコードが配布されないよう、検証を行い、十分なtronを備えている必要があります。.
人工知能とソフトウェア開発の融合は、懸念すべきセキュリティ上の脅威を露呈しました。また、AIモデルは偽のソフトウェアパッケージをdent推奨する可能性があり、これはソフトウェアプロジェクトの完全性に大きなリスクをもたらします。アリババが指示書に、本来あるべきではないボックスを含めていたという事実は、人がロボットのように推奨に従うことで、実際にどのような可能性が生じ得るかを示す、紛れもない証拠です。
AIによって提供される情報。今後は、ソフトウェア開発におけるAIの誤用を防ぐための予防的な対策を講じる必要がある。.

