Metaの「史上最高」スパコン開発:プライバシーへの取り組み(2)

SHARE:
Image Credit:Introducing Meta’s Next-Gen AI Supercomputer

規模が大きくなりつつある

(前回からの続き)Metaは本日公開したブログで、AIスーパーコンピューティングがスケールアップして必要とされていると主張している。というのも、教師付き学習とトランスフォーマーベースのモデルの利点を実現するには、ビジョン、スピーチ、言語、あるいは有害コンテンツの識別のような重要な用途など、さまざまなドメインが必要になるからだ。

MetaのスケールでAIを実現するには、増え続けるデータを瞬時に分析できる、非常に強力なコンピューティングソリューションが必要になる。MetaのRSCは、AIによって実現される新しい技術や顧客体験につながるスーパーコンピューティングのブレークスルーであるとLee氏は述べている。

「ここでは複数の意味でスケールが重要です。まず、Metaは膨大な量の情報を継続的に処理するため、データ処理の性能と容量に一定のスケールが必要になります。次に、AIプロジェクトは大量のデータに依存しており、より多様で完全なデータセットがより良い結果をもたらします。第三に、これらのインフラはすべて最終的に管理されなければならないため、スペースと電力の効率、および規模に応じた管理の簡素化も重要になってきます。これらの要素は、従来のエンタープライズプロジェクトでも、Metaのスケールで運用する場合でも、それぞれ等しく重要なのです」(Lee氏)。

セキュリティとプライバシーの問題

ここ数年、Metaはプライバシーやデータポリシーに関して何度か反発を受け、2018年には連邦取引委員会(FTC)がFacebookのプライバシー慣行に関する実質的な懸念を調査していると発表している。Metaは、セキュリティとプライバシーの問題に最初から取り組みたいと考えており、プライバシーとセキュリティを念頭に置いてRSCを一から設計することで、RSCのデータを保護するとしている。

Metaはこれにより、同社の研究者がトレーニングの直前まで復号化されない「暗号化されたユーザー生成データ」を使って、安全にモデルをトレーニングできるようになると主張している。

「例えば、RSCは大規模なインターネットから隔離されており、直接のインバウンド・アウトバウンド接続はなく、トラフィックはMetaのプロダクションデータセンターからのみとなります。また、当社のプライバシーとセキュリティの要件を満たすために、当社のストレージシステムからGPUまでのデータパス全体はエンドツーエンドで暗号化されており、これらの要件が常に満たされていることを確認するために必要なツールとプロセスを備えています」(同社ブログより)。

Metaは、データがRSCにインポートされる前に、正しく匿名化されていることを確認するために、プライバシー審査プロセスを経る必要があると説明している。また、AIモデルの学習に使用する前にデータも暗号化し、定期的に復号化キーを削除して古いデータにアクセスできないようにしているとしている。

このスパコンを構築するために、Nvidiaはコンピュート層(そのコンピュートノードとしてのNvidia DGX A100システム)などを提供した。GPUは、Nvidia Quantum 200 Gbps InfiniBand 2-level Closファブリックを介して通信する。Lee氏は、Penguin Computingのハードウェアとソフトウェアの貢献が、Penguin、Nvidia、Pure Storageを結びつける「接着剤」であると述べている。Metaに大規模なスーパーコンピューティング・ソリューションを提供するためには、この3社のパートナーの協力が不可欠だった。

【via VentureBeat】 @VentureBeat

【原文】

BRIDGE Members

BRIDGEでは会員制度「BRIDGE Members」を運営しています。会員向けコミュニティ「BRIDGE Tokyo」ではテックニュースやトレンド情報のまとめ、Discord、イベントなどを通じて、スタートアップと読者のみなさんが繋がる場所を提供いたします。登録は無料です。
  • テックニュース全文購読
  • 月次・テーマまとめ「Canvas」
  • コミュニティDiscord
  • イベント「BRIDGE Tokyo」
無料メンバー登録