AIのアキレスヒール:新しい研究は、基本的な弱点を特定します

コペンハーゲン大学の研究者は、完全に安定した機械学習アルゴリズムが複雑な問題に対して達成できないことを証明しており、AIの制限の徹底的なテストと認識の重要な必要性を強調しています。クレジット:aikantie.com

コペンハーゲン大学の研究者は、単純な問題を超えて、常に安定しているAIのアルゴリズムを開発することは不可能であることを数学的に証明した世界で最初の研究者になりました。

ChatGptと同様の機械学習ベースのテクノロジーが増加しています。ただし、最も高度なアルゴリズムでさえ制限に直面しています。からの研究者コペンハーゲン大学画期的な発見を行い、基本的な問題を超えて、常に安定したAIアルゴリズムを開発することは不可能であることを数学的に実証しました。この研究は、アルゴリズムのテストプロトコルの改善の道を開く可能性があり、機械処理とヒトインテリジェンスの固有の違いを強調します。

結果を説明する科学記事は、理論的コンピューターサイエンスに関する主要な国際会議の1つで発表されることを承認されています。

機械は、医師よりも医療スキャン画像を医師よりも正確に解釈し、外国語を翻訳し、すぐに人間よりも安全に車を運転できる可能性があります。ただし、最高のアルゴリズムでさえ弱点があります。コペンハーゲン大学のコンピューターサイエンス学科の研究チームは、それらを明らかにしようとしています。

例として道路標識を読む自動車両を使用してください。誰かがサインにステッカーを置いた場合、これは人間のドライバーをそらすことはありません。しかし、標識が訓練されたものとは異なるため、マシンは簡単に延期される可能性があります。

「私たちは、入力がわずかに変更された場合、出力がほぼ同じままであるという意味で、アルゴリズムを安定させたいと思います。実際の生活には、人間が無視するために使用されるあらゆる種類のノイズが含まれますが、マシンは混乱することがあります」

弱点を議論するための言語

世界で最初に、他の国の研究者と一緒にグループは、単純な問題とは別に、常に安定している機械学習のためのアルゴリズムを作成することは不可能であることを数学的に証明しています。結果を説明する科学記事は、コンピューターサイエンスの基礎(FOCS)に関する理論的コンピューターサイエンスに関する国際的な会議の1つで発表されることが承認されました。

「私たちは自動化されたカーアプリケーションに直接取り組んでいないことに注意したい。それでも、これはアルゴリズムが常に安定しているには複雑すぎる問題のように思えます」とアミール・イェフダヨフは言います。

「アルゴリズムがいくつかの非常にまれな状況下でのみエラーを犯した場合、これは受け入れられる可能性があります。しかし、大きな状況のコレクションの下でそうする場合、それは悪いニュースです。」

科学的な記事は、アルゴリズムのバグを特定するために業界で適用することはできません。これは意図ではなかった、と教授は次のように説明しています。

「機械学習アルゴリズムの弱点を議論するための言語を開発しています。これは、アルゴリズムをテストする方法を説明するガイドラインの開発につながる可能性があります。そして、長期的には、これも再びより良い、より安定したアルゴリズムの開発につながる可能性があります。」

直観から数学へ

可能なアプリケーションは、デジタルプライバシーを保護するためのアルゴリズムをテストするためのものです。

「一部の企業は、プライバシー保護のための絶対に安全なソリューションを開発したと主張するかもしれません。第一に、私たちの方法論は、ソリューションが絶対に安全ではないことを確立するのに役立つかもしれません。

何よりもまず、科学的な記事は理論に貢献しています。特に数学的な内容は画期的であると彼は付け加えます。「私たちは、安定したアルゴリズムが少量の入力ノイズにさらされるときとほぼ同じように機能するはずだと直感的に理解しています。それにはステッカーがある道路標識のように。しかし、理論的なコンピューター科学者として、私たちは確固たる定義が必要です。オリジナル出力は、アルゴリズムを安定していることを受け入れる場合です。

制限を念頭に置くことが重要です

科学記事は、理論的なコンピューターサイエンスの世界の同僚から大きな関心を集めていますが、テクノロジー業界ではありません。少なくともまだ。

「あなたは常に、アプリケーションで働く人々からの新しい理論的発展と関心との間のいくらかの遅延を期待すべきです」とアミール・イェフダヨフは笑顔で付け加えながら次のように述べています。

しかし、彼はこの場合に起こっていることを考えていません。「機械学習は急速に進行し続けており、現実の世界で非常に成功している解決策でさえまだ制限があることを覚えておくことが重要です。マシンは考えることができるように見えるかもしれませんが、結局のところ、彼らは人間の知性を持っていません。

参照:Zachary Chase、Shay Moran、Amir Yehudayoff、2023、Computer Science(FOCS)会議による「学習における複製性と安定性」。
doi:10.48550/arxiv.2304.03757

ブレークスルーを見逃さないでください: