Tech

AIとは何ですか?

とにかくAIとは何でしょうか?人間の思考を模倣するソフトウェアと考えるのが最適な方法です。それは同じではなく、より良いとか悪いわけでもないのですが、人間が考える方法のおおまかなコピーでも、物事を進めるのに役立ちます。ただし、それを本当の知性とは誤解しないでください!

AIは機械学習とも呼ばれ、これらの用語はほぼ同等ですが、少し誤解を招くことがあります。機械は本当に学習できるのでしょうか?知性を定義し、さらには人工的に作成できるのか?AIの分野は、結局のところ、答えだけでなく、質問についても同じくらい、そして機械がそれをするかについてだけでなく、私たちがどのように考えるかについても同様に重要です。

  • AIの仕組み
  • AIがどのように間違う可能性があるか
  • トレーニングデータの重要性
  • 「言語モデル」が画像を作成する方法
  • AGIが世界を乗っ取るのはどうなのか?

AIの仕組み、なぜ秘密のタコのようなものなのか

さまざまなAIモデルが存在しますが、共通の構造を共有しています:パターンの中で最も可能性の高い次のステップを予測します。

AIモデルは実際には何も「知らないこと」はないのですが、パターンを検出して継続することがとても得意です。これについて最も生き生きと説明されたのは、2020年に計算言語学者のエミリー・ベンダーとアレクサンダー・コーラーによって行われたもので、「AIは過激に知的な深海のタコ」と例えられました。

たとえば、英語を知らないし、言葉や人間性の概念すら持っていないことを考慮に入れても、そのタコは、検出されたドットとダッシュのパターンの非常に詳細な統計モデルを作成することができます。

例えば、「how are you?」や「fine thanks」と言っているかのような信号が人間たちが送信する通信線に触れているタコは、実際にはどの信号が何を表しているのかも理解していないし、もし理解しても、それらの言葉が何を意味するのかも知らないでしょうが、その1つのドットとダッシュのパターンが他の後続するパターンに続くことは見事にわかります。何年も盗み聞くうちに、タコは非常に多くのパターンを非常によく学習し、通信線を切断して自分自身で会話を続けることさえ可能です、非常に説得力があります!

Image Credits: Bryce Durbin / TechCrunch

これは、大言語モデルやLLMsとして知られるAIシステムに非常に適した比喩です。

これらのモデルはChatGPTなどのアプリを駆動しており、オクトパスのようであります:彼らは言語を理解している訳ではなく、むしろ彼らは、何十億もの書かれた記事、本、会話の中で見つけたパターンを数学的に符号化することによって、言語の中で見つけたパターンを複雑で多面的な地図を構築しています。この複雑な、多次元の地図を構築する過程はトレーニングと呼ばれ、我々は後でそれについてもう少し詳しく話します。

AIがプロンプト(質問など)を受け取ると、最もそれに似ている地図上のパターンを探し、次の単語を予測、または生成します。これは大規模なオートコンプリートです。言語の構造がどれだけよく、AIがどれだけの情報を取り入れているかを考えると、彼らが何を生み出すことができるかは驚くほどです!

AIのできること(およびできないこと)

Image Credits: Bryce Durbin / TechCrunch
Image Credits: Bryce Durbin / TechCrunch

われわれはまだAIが何ができるか、できないかを学んでいます—古くからの概念だが、このような規模の実装は非常に新しいものです。

LLMは非常に迅速に低品質な文章を作成することができます。たとえば、何を言いたいのかを一般的に記述したブログ投稿の草稿、または「lorem ipsum」の代わりに埋め込むコピーなどです。

それと同じように、低レベルのコーディングタスクも得意です—新人開発者が次々に同じことを無駄に繰り返すようなものです。 (彼らは最終的にはStack Overflowからコピーするつもりだったのですよね?)

大言語モデルは、大量の整理されていないデータから有用な情報を抽出するというコンセプトに基づいて構築されているため、長い会議、研究論文、企業データベースなどの整理や要約に非常に優れています。

科学分野では、AIは言語と同じように、大量のデータ—天文学観測、タンパク質相互作用、臨床結果—に対するパターン認識を行います。これはAIが発見を行うのではなく、既に使用されていることを研究者は加速し、何十億分の1の分子や最微細な宇宙信号を識別したりすることができました。

何百万人もの人々が経験した通り、AIは驚くほど興味深い会話相手となってくれます。あらゆるトピックに通じており、偏見を持たず、素早く返答するAIは、実際の友達のように。これらの人間の態度や感情の模倣を本物のものと勘違いしないでください—多くの人々が疑似人間性のこの実践に嵌りますが、AIメーカーの側はそれを気に入っています。

ただし、AIは常にパターンを補完するだけであることを心に留めておいてください。たとえテクニカルな文献の中で、「AIはこれを知っている」とか「AIはこれを考えている」と言ったとしても、AIは何も知らず、考えることすらありません。「推論」と呼ばれる結果を生成する計算プロセスについては、便宜上「AIが理解している」とか「AIが考える」と言ったりします!おそらく後でAIが実際に何をするのかについてより適切な言葉を見つけるでしょうが、今のところは騙されないようにするのはあなた次第です。

疑似人間性に対抗

AIモデルは、画像やビデオの作成など他のタスクを手助けするためにも適応させることができます—忘れていないで、以下でそのことについて話します。

AIが間違う可能性がある方法

AIに関する問題は、まだ殺すロボットやスカイネットのような種類ではありません。われわれが見ている問題は、AI自体が行う選択よりも、AIの制限によるものが大部分であり、人々がそれをどのように使うかによるところが大きいです。

言語モデルで最も大きなリスクの1つは、「わかりません」と言う方法が分からないことです。パターン認識オクトパスを考えてみてください:それが聞いたことのないことを耳にした場合、どうなるか?既存のパターンに従うものがない場合、パターンに続いた一般的な領域に基づいて推測するだけです。そのため、AIモデルも同様にして、インテリジェントな応答のパターンにフィットすると感じた人、場所、またはイベントを発明し、それらを幻覚と呼びます。

これについて最も懸念されることは、幻覚が事実と何ら区別されていないということです。研究の要約を求め、引用を求めたら、AIはわからない論文や著者を作り出すかもしれませんが、それがどのようにしてわかるでしょうか?

AIモデルは常に幻覚を見る運命なのでしょうか?

現在のAIモデルの構築方法では、幻覚を防ぐ実用的な方法は存在しません。これは、AIモデルが真剣に使用されるところでは、しばしば「ヒューマン・イン・ザ・ループ」システムが必要になる理由です。結果を少なくともレビューしたり、事実を確認したりするようにすることで、AIモデルの速度と柔軟性を活用しつつ、情報を捏造する傾向を緩和することができます。

AIに発生する別の問題は、バイアスです—それについてはトレーニングデータについて話さなければなりません。

トレーニングデータの重要性と危険性

最近の進歩により、以前よりもはるかに大きなAIモデルを作成することが可能になりました。しかし、それを作成するためには、モデルが取り入れて分析するために相応の量のデータが必要です。数十億の画像や文書について話しています。

だれでも、1万のウェブサイトから10億ページのコンテンツをスクレイプして、ネオナチの宣伝や家庭でナパームを製造するためのレシピなど、反審美的なものを得ることができるかどうかはわかりますよね。例えば、ナポレオンのウィキペディアのエントリーがビル・ゲイツによるマイクロチップのブログ投稿と同じ重要度で扱われると、AIはどちらも同じくらい重要なものとして扱います。

画像についても同じです:1000万枚の画像を取得しても、これらの画像がすべて適切かつ代表的かどうかを本当に確認できますか?CEOの90%が白人男性のストック画像のうち、白人男性だけがいいです、などとしますと、AIはそのようなことを間違いなく真実として受け入れます。

メタがバイアスでコンピュータビジョンモデルを調査するためのデータセットを公開

ですから、あなたがワクチンが陰謀であるか否かを尋ねると、それが「双方の立場」の概要を裏付けるデマを持っています。そしてCEOの画像を生成するように要求すると、そのAIは喜んでたくさんのスーツを着た白人男性の画像を提供します。

今のところ、ほとんどのAIモデルの製造業者がこの問題に取り組んでいます。問題を解決する1つの方法は、モデルが悪いものについて何も知らないようにトレーニングデータを削減することです。しかし、例えば、ホロコーストの否認についてのすべての参照を削除すると

Related Articles

Back to top button