Tech

米商務省のレポート、'オープン'AIモデルを支持

米国商務省は、MetaのLlama 3.1などの「オープン重量」生成AIモデルを支持するレポートを発表しましたが、これらのモデルに潜在的なリスクを監視するための「新しい機能」の開発を政府に勧めました。

米国商務省の国家電気通信情報局(NTIA)が執筆したこのレポートは、オープン重量モデルが小規模企業、研究者、非営利団体、個々の開発者に生成AIを広げると指摘しています。これらの理由から、政府はオープンモデルへのアクセスに制限を課すべきではないとレポートは示唆しています-少なくとも市場に損害を与える可能性があるかどうかを調査する前に。

この気持ちがFTC委員長のリナ・カーンの最近のコメントと一致しており、オープンモデルは小規模プレーヤーがアイデアを市場に導入し、健全な競争を促進する可能性があると考えています。

“最大かつ最強のAIシステムのオープンさは、革新的ツールでの競争、革新、リスクに影響を与えます。”と商務省通信情報担当次官であるアラン・デイビッドソンは声明で追加しました。“NTIAのレポートはオープンAIシステムの重要性を認識し、最大のAIモデルのモデル重量の広範な利用からのリスクのより積極的な監視を求めています。政府は新しいリスクを理解し、対処するための能力を構築しながらAI開発を支援するために重要な役割を果たします。”

これに加えて、米国内外の規制当局が、オープン重量モデルのリリースを制限したり、新しい要件を課したりする可能性のある規制を検討しています。

カリフォルニア州は、計算能力が1026 FLOPを超えるモデルをトレーニングする企業に、サイバーセキュリティを強化し、そのコントロール下にあるモデルのコピーを「シャットダウン」する方法を開発することを義務付けるSB 1047を可決する寸前です。海外では、EUは最近、AI法に従った企業に対して著作権、透明性、AIアプリケーションに関する新しい規則を強制します。

Metaは、EUのAIポリシーが将来いくつかのオープンモデルのリリースを阻止すると述べています。また、いくつかのスタートアップと大手テック企業が、カリフォルニアの法律に反實していると主張しています。

NTIAのモデルガバナンスの哲学は完全に放任主義ではありません。

NTIAはレポートで、政府がオープンモデルのリスクと利益の証拠を収集し、その証拠を評価し、それらの評価に基づいて行動し、必要に応じてモデルの利用に制限を課すと述べています。具体的には、政府がさまざまなAIモデルの安全性を研究し、リスク緩和の研究を支援し、政策の変更が必要かを示す「リスク特有」の指標の閾値を開発することを提案しています。

これらの措置およびその他の措置は、バイデン大統領のAIに関する行政命令と一致しており、米国商務長官ジーナ・ライモンドは、政府機関と企業がAIの創造、展開、利用に関する新しい基準を設定するよう呼びかけています。

ライモンドはプレスリリースで、「バイデン・ハリス政権は、AIの約束を最大限に引き出し、そのリスクを最小限に抑えるためにあらゆる手段を駆使しています。」と述べました。「今日のレポートは、責任あるAIイノベーションと、オープンさを積極的に受け入れ、米国政府が将来の潜在的な課題に何を準備し、対処する方法を勧める道を示しています。」

Related Articles

Back to top button