Khari Johnson

Khari Johnson

執筆記事

なぜGoogleはGebru氏を解雇したのか:問題の根にあるもの(1/9)

SHARE:

GoogleがTimnit Gebru氏を解雇したことが明らかになってから2週間が経過した。Gebru氏は、AI倫理研究者の中でも世界的に著名であり、顔認識と大規模な言語モデルは社会から阻害されたマイノリティコミュニティにおいて上手く機能しないことを指摘したパイオニアでもある。 Gebru氏を巡る一件は、AI倫理や権力闘争、ビッグテックなどの諸問題が議論されている中で発生した。例を挙げると、Geb…

Photo by Deepanker Verma from Pexels

GoogleがTimnit Gebru氏を解雇したことが明らかになってから2週間が経過した。Gebru氏は、AI倫理研究者の中でも世界的に著名であり、顔認識と大規模な言語モデルは社会から阻害されたマイノリティコミュニティにおいて上手く機能しないことを指摘したパイオニアでもある。

Gebru氏を巡る一件は、AI倫理や権力闘争、ビッグテックなどの諸問題が議論されている中で発生した。例を挙げると、Gebru氏が解雇されたのは、NLRB(全米労働審査委員会)が組合組織に関心のある従業員を解雇したとしてGoogleを提訴したのと同じ日であった。また、Gebru氏の解雇は企業内における研究の企業サイドの影響力問題に対して疑問を投げかけた。企業側の自主規制の限界を露呈し、社会全体がBlack Lives Matter運動を巻き起こしているのと並行してテクノロジー企業内における黒人・女性の扱われ方の問題を浮き彫りにした。

VentureBeatが実施したGebru氏とのインタビューで、同氏は解雇された過程を「Disrespectful(失礼な行為)」と表現し、CEOのサンダー・ピチャイ氏が全社に公開したメモを「Dishumanizing(人間性を損なうもの)」と表現している。この諸問題をさらに深く掘り下げるため、VentureBeatではAI、技術政策、法律の各分野の専門家に詳しい話を聞いた。彼らは話の中で、政府や企業、学会全体が変化するべきポリシーの変更や設定手段についても語った。まず、第一前提として彼らはGebru氏を解雇したGoogleの判断は間違いだったと指摘している。

アルゴリズム監査を実施するParityのCEOであるRumman Chowdhury氏は、以前アクセンチュアにてAIのグローバルリーダーとして政府や企業に向けたアドバイスを実施していた。同氏は、今回の事件に対して以下のような見解を示している。

「Googleや、AI業界など誰もが今回の事件の巻き添えをくらったと思います。彼らが本当に成し遂げたいことをきちんと理解しているのかという問題を露呈したと思います。なぜなら、その観点をきちんと理解していればこのようなことは起きなかったからです」。

(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

Googleとダイバーシティ:サンダー・ピチャイ氏のメモは私の人間性を奪った(3/3)

SHARE:

(前回からのつづき) VentureBrat: 見境のない人々のことで長年の問題となっていますが、大手テック企業のリーダーにはどのような説明責任が必要とされると思いますか? Gebru: 有害な職場環境にいれば何が起こりますか?黒人女性の環境改善で昇進したリーダーはいません。どうしてかって?彼らの下には黒人女性がいないからです。1人もです。すべてのリーダー、昇進したリーダーは、私のような人間にとっ…

(前回からのつづき)

VentureBrat: 見境のない人々のことで長年の問題となっていますが、大手テック企業のリーダーにはどのような説明責任が必要とされると思いますか?

Gebru: 有害な職場環境にいれば何が起こりますか?黒人女性の環境改善で昇進したリーダーはいません。どうしてかって?彼らの下には黒人女性がいないからです。1人もです。すべてのリーダー、昇進したリーダーは、私のような人間にとって居心地がよくて働きやすい環境を作る必然性を持たずに今の立場に就いたのです。では、リーダーの業績を決めるのは誰でしょう?さらに上のリーダーたちが、私の(元)上司のSamy Bengio氏と、それ以外の良い評価を得ている人のどちらが好ましいか、といったことを決めます。彼らは私のような人間にとって居心地が良く風通しの良い環境を作ろうとしてこなかったリーダーたちです。

彼らが私のような人間にとって厳しい環境を作ったのに、どうして説明責任を果たすと期待できるでしょう?何が起こったかは見ての通りです。彼らはすぐに私を追い出しました。口裏を合わせる時間すらないほど素早く。彼らはお構いなしなのです・・・この企業はダイバーシティやインクルージョンを気にしません。何も機能していないので、私は外部から何かできないかと考えています。事実、口先だけの同意は最悪です。それも嫌がらせのひとつです。

VentureBrat: 大手テック企業の幹部が「次はもっと向上する」というより強いインセンティブを得られるよう、ダイバーシティの目標を報酬に結びつけるべきだと思いますか?

Gebru: 確かに「次はもっと向上する」だけよりも何か良い目標があるべきです。彼らの給料は・・・そう、給料はおそらく何か現実的なものに直接結びつけられるべきと思います。現実的に必要とされているものが直接、結果に結びつく必要があります。ひとつ心配なのは、もしも報酬に直結することをポリシーに明記すると、白人至上主義者から、黒人に対する優遇などとして反発が起こるかもしれないことです。

VentureBrat: 研究者の中には、あなたが書いた論文がなぜGoogleからこれほど強い反発を受けたのか理解できない、と言う人もいました。今回起こったことは、論文の内容にどのくらい関連があると考えていますか?

Gebru: 要素はたくさんあると考えています。おそらく論文にも何らかの関係があります。彼らは理由を探していましたから、論文は言い訳かもしれません。私は(この論文で)大規模言語モデルについて述べているのであって、Googleについて述べたわけではありません。BERTがGoogleで検索に使われているように、彼らは少し神経質になっていて、Googleから出されるこういった類のものはすべて検閲したいのかもしれません。でも重要なのは検閲だけではないのです。やり方がとても無礼でした。何よりも彼らは一切議論を挟まずに私の研究を検閲しようとしています。

VentureBrat: 次は何をしたいですか?

Gebru: まだ分かりません。まさに「彼らは私を解雇しました」ーー私のチームが使うこの言葉が好きですーー彼らは私の休暇中に解雇したので、休暇明けに戻ってから話し合いたいと言いました。一息つきたいです。黒人女性に敵対する組織にはいたくありません。倫理的AIチームにとって少しでも居心地のよい場所を作るために、できる限りのことを試みたと思います。次に何をするにしろ、安全な環境で、嫌がらせを受けず、あまり激しく戦わなくてもコミュニティにとって重要なことを守れることを確認したいです。

【via VentureBeat】 @VentureBeat

【原文】

Googleとダイバーシティ:サンダー・ピチャイ氏のメモは私の人間性を奪った(2/3)

SHARE:

(前回からのつづき) VentureBrat: こうなった結果から、ポリシーの変更について何か特別な願いはありますか? Gebru: ええ、たくさんあります。でもポリシーの変更については計画的かつ慎重にしたいので、もう少し考えてからお答えしたいと思います。 ニュースレターの購読 注目すべき記事、世界のスタートアップシーンの話題、BRIDGE 主催のイベントに関する情報をお届けします! Sign U…

(前回からのつづき)

VentureBrat: こうなった結果から、ポリシーの変更について何か特別な願いはありますか?

Gebru: ええ、たくさんあります。でもポリシーの変更については計画的かつ慎重にしたいので、もう少し考えてからお答えしたいと思います。

VentureBrat: あなたの経験から、研究に対する企業の影響はどう方向づけられるべきだと考えますか?

Gebru: 多くの人がこのことについて論じてきました。研究カンファレンスはみな、産業界から多額の資金提供を受けています。現在のコンピュータサイエンスの研究はどうでしょうか?まるで軍隊がいて企業がいるといった感じです。他に選択肢があるでしょうか?NIHのようなものもありますが、本質的な利益相反があるので、軍や企業利益とは無関係に研究に資金提供するものが必要です。

私は企業で研究すべきではないと言っているのではありません。研究はすべきだと思いますが、これまで、特に(研究の)検閲で行われてきたものがカンファレンスでどんな影響力を持つかを踏まえると、よく考えておく必要があるのではないでしょうか。問題は、多くのリソースが必要な研究を行う場合、より深刻な問題になることです。これは論文で述べたことのほんの一部です。

VentureBrat: あなたが解雇されたことについて、私が最初に読んだツイートには、機械学習の分野への参入に興味を持っている若い女性や有色人種は大勢いる、というものがあり興味深かったです。彼らにどんなことを知ってもらいたいですか?

Gebru: 有色人種の若い女性には、今この瞬間が必要だと伝えたいです。今は本当に困難な時だと思います。こんなメッセージを送ることはとても辛いですが。最も気がかりなのは、自分にこんなことが起こるのなら、他の人はどうなんだろうかということです。多くの人々は私のようにはプラットフォームや可視性、草の根のサポートを持っていません。想像してみてください。他の黒人女性には何が起こっているでしょう?ダイバーシティイニシアチブを自由意志に任された企業が、正しいことをすると思いますか?

ハラスメントをして数百万ドルもの退職金をもらう人もいます。「でも会社にとって非常に価値がある人間だ」とか、「ああ、でも彼は人付き合いが下手なんだ」などと言うのもきわめて有害です。何度も繰り返し、自分自身を証明しなければならなかった黒人女性もいます。私は最後には、専門知識が評価されるようになりましたが、Googleの内部では認められませんでした。私の専門知識が完全に却下されることも多々ありました。これについてはメールに書いています。

直属の上司チームメンバーがリスクを冒して公的に味方についてくれる人もいます。私がRediet Abebe氏とBlack in AIを共同設立したように、コミュニティ全体が公的に力を貸してくれる場所もあります。それでも十分ではなく、決定が早すぎて間に合わなかったり、きわめて無礼なやり方で怒れる黒人女性という話にされてしまうこともあります。

彼女たちに知ってほしいのは、夢ではないということ。あなたのせいではありません。あなたは素晴らしいのです。精神的虐待なんかに負けないでください。精神的虐待で最も難しいと思うのは、発言への反発だけでなく、恥の感情です。多くの場合、自分のせいだと考えるために恥を感じてしまうのです。

自分のせいではないと思うのが難しいことは知っていますが、あなたは正しいと感じなければなりません。そのためには周りの人に支えられること、肯定してくれる人を持つことです。周りが私に精神的虐待をしたVPのような人ばかりなら、自分自身のせいだと思い込んでしまうでしょう。これが、私がまず最初に言いたいことです。

2つ目に、テクノロジーの未来に参加し、自分の想像力で形作ることが大事です。Ramon Amaro博士は「Black in AI」ワークショップでこのことについて述べています。Ruha Benjamin氏も論じています。

科学教育とは何か、科学教育のパラダイムについて考えるのは本当に重要です。なぜ、レイシストや性差別主義者に同調する一択しか与えられていないのか。勇気を持って一歩踏み出せば、不要品のようにはねのけられてしまう。専門知識をどれだけ持っていても関係ありません。サポートをどれだけ持っていても関係ありません。

未来のテクノロジーに参加することも重要ですが、想像力でどんなテクノロジーを構築していくのかも考えてみましょう。現状では想像力でテクノロジーを構築することはできません。私たちを混乱に陥れたすべての白人男性を一掃したい。私たちは想像力でテクノロジーを生み出しているのではありません。興味を満たすための想像力でテクノロジーを作ります。それが私たちのコミュニティに危害を加えるのなら、一掃しなければなりません。でもそうすれば、報復を受けることになります。(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

Googleとダイバーシティ:サンダー・ピチャイ氏のメモは私の人間性を奪った(1/3)

SHARE:

GoogleのCEO、サンダー・ピチャイ氏は水曜日、従業員向けのメモで著名AI倫理学のリーダー、Timnit Gebru氏の解雇の方法について謝罪したことを明らかにした。同氏は信頼回復に努めていくと責任感をあらわにした。また、同社は現在「De-escalation Strategies」を導入することを検討していると述べた。ピチャイ氏はGoogleが世界でも著名な黒人女性AI研究者の1人を解雇した…

Timnit GebruImage Credit: Salem Solomon / VOA News

GoogleのCEO、サンダー・ピチャイ氏は水曜日、従業員向けのメモで著名AI倫理学のリーダー、Timnit Gebru氏の解雇の方法について謝罪したことを明らかにした。同氏は信頼回復に努めていくと責任感をあらわにした。また、同社は現在「De-escalation Strategies」を導入することを検討していると述べた。ピチャイ氏はGoogleが世界でも著名な黒人女性AI研究者の1人を解雇した理由を、同社が重視する多様性を優先した結果だと触れている。

このメモに対し、当事者のGebru氏は言葉のあやを意図的に利用していると述べ、「人間性」を奪うものだとしている。VentureBeatのインタビューに対して、Gebru氏はビッグテックにおけるカルチャー、倫理観の統制、AI研究の独立性、また若い女性・有色人種の機械学習研究者が知ってほしい2つの事実について語った。

GoogleがGebru氏を解雇して以降、Google Ai倫理チーム、Google本体やその他テックフィールドの多くはGoogleに説明責任と変化を求めてきた。この1週間ほどで、2,000人以上のGooglerと3,700人以上の学術・産業界の支持者がGebru氏をバックアップし、彼女の解雇を「報復的だ」と称している。また、前例のない研究検閲が起きているとよんでいる。

Gebru氏は一連のメールや、特に阻害されたコミュニティーにおける大規模な言語モデルのリスクに関する研究を取り消すように要求されたことを受け、既にGoogleには所属していない状況だ。

彼女は解雇される数週間前、Google Brainの中でも最も多様性に富んだチームメンバーとして活動していた。彼女はBlack in AIの共同創業者でもあり、Faireness, Accountability, and Transparency(FAccT)AIリサーチカンファレンスを主導する立場でもあった。また、アルゴリズムフェアネスに関するリサーチコミュニティーにも所属しており、AIモデルに関連するリスクについて議論している。(以下のインタビューは簡潔に編集されている)

VentureBeat: サンダー・ピチャイ氏のメモに対するあなたの見解をお聞かせください

Timnit Gebru: Googleは単に何か発信しなければならない状況下に落ちいったため、形式上パブリックにステートメントを公開しているのだと思います。De-escalation Strategiesに対する言及は、まるで私が怒っている黒人女性のような見せ方にするための戦略であるように思えます。つまり、ただ単に今起きている状況を何とか鎮めることが第一になっている状況で、発言をそのまま信じ切ることはできません。

私を怒った黒人女性として描いて、それを公言したら問題要素として取り上げられて、De-escalation Strategiesなんて言い出す始末です。メールを書いても無視される。資料を作っても無視される。その酷さを指摘したら、怒り狂っている黒人女性として丸め込む結末です。(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

声が出ずともAIがコマンド検知、サイレントスピーチのAIトレーニングに成功ーーカリフォルニア大学

SHARE:

カリフォルニア大学バークレー校の研究者によると、口や筋肉の動きからサイレントスピーチ(無発声での発話)の内容をセンサーで読み取り、AIをトレーニングすることに初めて成功したそうだ。電極を顔やのどに装着し、EMG(筋電図)を利用してサイレントスピーチを検出する。このモデルは、単語を予測して合成音声を生成する「デジタル音声」と呼ばれるものに焦点を当てている。 この方法によって、声を出して話すことのでき…

カリフォルニア大学バークレー校の研究者によると、口や筋肉の動きからサイレントスピーチ(無発声での発話)の内容をセンサーで読み取り、AIをトレーニングすることに初めて成功したそうだ。電極を顔やのどに装着し、EMG(筋電図)を利用してサイレントスピーチを検出する。このモデルは、単語を予測して合成音声を生成する「デジタル音声」と呼ばれるものに焦点を当てている。

この方法によって、声を出して話すことのできない人々のために多くのアプリケーションを可能にし、音声コマンドに応答するAIアシスタントや他のデバイス用の音声検出をサポートできると研究者らは確信している。

チームの論文は次のように述べている。

デジタル音声によるサイレントスピーチは幅広く応用の可能性をもっています。たとえば、Bluetoothヘッドセットなど、周囲に迷惑をかけることなく電話での会話を可能にするデバイスを作るのに利用できます。そのようなデバイスは、周囲の騒音で声を聞き取れないときや、静粛にしなければならない場面などでも重要な役割を果たすはずです。

この他の例として読唇AIが挙げられる。これはサイレントスピーチから単語を読み取ることができ、監視ツールを強化したり、聴覚障害をもつ人々のユースケースをサポートしたりすることができる。

カリフォルニア大学バークレー校の研究者らはサイレントスピーチの予測に「音声出力ターゲットを音声レコードから同一内容のサイレントレコードへ変換する」というアプローチを使った。次に、WaveNetデコーダを使って音声予測を生成した。

発声ありのEMGデータで訓練されたものをベースラインとすると、このアプローチでは文章の書き起こしにおける単語誤認率が64%から4%へ減少し、エラーは95%減少した。この分野でのさらなる研究を促すため、研究者らは約20時間分の顔面のEMGデータをオープンソース化している。

「Digital Voicing of Silent Speech(サイレントスピーチのデジタル音声化)」モデルに関するDavid Gaddy氏とDan Klein氏の論文は、先週オンライン開催されたEmpirical Methods in Natural Language Processing(EMNLP)のBest Paper賞を受賞した。Hugging Face社はオープンソースのTransformersライブラリに関する取り組みで主催者からBest Demo Paper賞を獲得した。EMNLPの研究としては他に、 アフリカの諸言語を翻訳するオープンソースプロジェクト「Masakhane」のメンバーが低リソースでの機械翻訳に関するケーススタディを発表し、中国の研究者はマルチモーダルなTwitterのデータセットにおいて中傷を検出する最新鋭のモデルを発表した。

【via VentureBeat】 @VentureBeat

【原文】

Amazon新デバイス発表:高齢者を見守る「Care Hub」を公開(2/2)

SHARE:

(前回からのつづき)Care Hub以外にもAmazonは本日(9月24日)、クラウドゲーミングサービスの「Luna」、球体の形をした「Echo Dot」、ホームセキュリティドローンの「Ring」、音声コマンドで動画再生時にユーザーの声を追いかけてスクリーンが回転する250ドルのスマートディスプレイ「Echo Show 10」も発表している。本日開催された非公開バーチャルイベントにおいてデモが行わ…

(前回からのつづき)Care Hub以外にもAmazonは本日(9月24日)、クラウドゲーミングサービスの「Luna」、球体の形をした「Echo Dot」、ホームセキュリティドローンの「Ring」、音声コマンドで動画再生時にユーザーの声を追いかけてスクリーンが回転する250ドルのスマートディスプレイ「Echo Show 10」も発表している。本日開催された非公開バーチャルイベントにおいてデモが行われ、このスマートディスプレイは今はなきホームロボットの「Jibo」に似た動きを見せた。スマートディスプレイをより快適なビデオ通話画面へと移行させる動きはFacebookの「Portal」とも競合している。

近年、Amazonはますます健康関連のプロダクトとサービスへと向かって進んでいる。今月Amazonが発表したウェアラブルデバイスの「Halo」は、睡眠、活動量、体脂肪率、音声を分析することによってユーザーのメンタルやエネルギーの状態を予測してくれる有料のフィットネストラッキングサービスだ。これに先立ちAmazonは医療記録に用いられる自然言語処理(NLP)の「AWS Comprehend」をローンチし、2018年には処方薬のデリバリ企業PillPackを買収している

この他にも大手テクノロジー企業による健康産業への進出が見られている。今月初めにAppleは、新型コロナウイルスの検出にも役立つ指標とされる血中酸素濃度を測定する機能を備えたApple Watchの新製品および、Apple Watchとスマートフォンを組み合わせて有料のエクササイズサービスを提供する「Fitness+」を発表した。

【via VentureBeat】 @VentureBeat

【原文】

Amazonは「クラウド監視サービス」を始める:プライバシーとセキュリティのはざま(2/2)

SHARE:

(前回からのつづき)私の経験から言えることだが、部屋の中で人を尾行するようなデバイスは来客を怖がらせる。まあ、パンデミックが流行している間は、家に来客がいることはそれほど重要ではないかもしれないが。 さておき、私は数年前に誕生日パーティーをしていた時、その家には「Jibo」が備え付けてあった。これは自分の存在を察知して、自分の方を向いてくれるロボットなのだが、それってどうなのと数人は嫌な顔をしたの…

(前回からのつづき)私の経験から言えることだが、部屋の中で人を尾行するようなデバイスは来客を怖がらせる。まあ、パンデミックが流行している間は、家に来客がいることはそれほど重要ではないかもしれないが。

さておき、私は数年前に誕生日パーティーをしていた時、その家には「Jibo」が備え付けてあった。これは自分の存在を察知して、自分の方を向いてくれるロボットなのだが、それってどうなのと数人は嫌な顔をしたのだ。もしかしたらJiboの人間のような頭とデジタルっぽい顔つきがダメで、Echo Show 10だったら避けることができる「不気味な谷」に人々を押し込んだように思う。これらのデバイスの所有者は来客が混乱しても驚くべきではないのだ。

しかし、だ。Echo Home 10は追従するだけじゃないのだ。家から離れているとき、デバイスは何かの物音に向かって旋回することができる「ホームセキュリティシステム」としても活用され、さらにライブビデオをチェックすることもできるのだ。

一方、自宅の外ではRingのCar Camが車のアラームとして機能し、Car Connectを通じてペアリングすると、車内からのライブ映像を表示することができる。また、音声コマンドに反応して、運転手が警察に止められた場合に録画を開始することもできる。新たなAlexa Guard機能もあるので、各Echoデバイスは特定の音を聞き、それが泣いている赤ちゃんなのか、吠える犬なのか、またはサイレンを聞いた場合なのかに個別に応答することができる。

そして本日導入された「Care Hub」は、家族が大切な人を遠隔で見守る方法を提供する。今月初めに有料サービスで提供開始したフィットネス・トラッカー「Halo」もある。

クラウド監視サービス(Surveillance-as-a-service)は何もないところから生まれたわけじゃない。COVID-19の前から、世界中の民主的な政府も独裁的な政府も、監視技術を利用するようになっていた。監視技術の低減は、50を超える黒人団体によって組織された「Vision for Black Lives」の重要な提言のひとつになっている。

サービスとして監視を売り込むという野心を燃やすのはなにもAmazonだけではない。先週、Appleはファミリー設定機能の主なセールスポイントとして、子供の見守りを追加した。そして、音声録音のプライバシーに関する人々の懸念を和らげるため、Amazonは「Alexa、私が今まで言ったすべてを削除して」というコマンドを導入している。

しかしこれらの製品やサービスは、人々がより頻繁にAlexaと話し、Amazonのレコメンドエンジンに依存し、継続的なサブスクリプションサービスを利用しろと囁き続けるだろう。そして今日、同社が公表した、家庭とご近所向けの監視用ドローン・セキュリティボックスのような形で、私有地をドローンが飛び回って監視するような、より野心的な製品が登場するのは時間の問題だ。関連するニュースとしてひとつ挙げておくと、昨年Amazonは、配達ドローンによって使用することができる監視特許を取得しているのだ。

【via VentureBeat】 @VentureBeat

【原文】

Amazon新デバイス発表:高齢者を見守る「Care Hub」を公開(1/2)

SHARE:

Amazonは9月24日、家族や友人の助けを必要としつつ一人暮らしする人々を見守ることのできる「Care Hub」を発表した。Care HubはEchoスピーカーなどのAlexa対応デバイスを介して動作する。たとえばデバイスに「Alexa、助けを呼んで」と話しかけると自動的に緊急連絡先へ電話をかけてくれる。Echoで911に電話することはできないが、Care Hubは遠距離音声認識で声を拾えるかぎ…

Amazonは9月24日、家族や友人の助けを必要としつつ一人暮らしする人々を見守ることのできる「Care Hub」を発表した。Care HubはEchoスピーカーなどのAlexa対応デバイスを介して動作する。たとえばデバイスに「Alexa、助けを呼んで」と話しかけると自動的に緊急連絡先へ電話をかけてくれる。Echoで911に電話することはできないが、Care Hubは遠距離音声認識で声を拾えるかぎり、指定された連絡先へ電話をかけてくれる。

またAlexaは、見守り対象の人の活動状況を家族や友人がスマートフォンで確認することもできる。AmazonのVPであるDaniel Rausch氏によると、1日の中で決められた時間までにEchoとのやりとりがない場合、連絡先へ自動通知するように設定することができるという。

黎明期にはスマートスピーカーの一般的な用途は天気予報や音楽を流すことだったが、時間がたつにつれて高齢者の自宅にホームセキュリティやスマートスピーカーを設置する人々が増えてきている。もしも万が一、倒れて起き上がれなくなってしまった場合、年齢とともに致命的な事故となる恐れは高くなるが、Alexaの遠距離音声認識があれば友人や隣人を呼ぶことができる。(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

Amazonは「クラウド監視サービス(Surveillance-as-a-service)」を始める(1/2)

SHARE:

今日、Amazonは十数種類の新たなデバイスやサービスを公開した。 Alexaとのより自然な会話方法、Lunaというクラウドゲームサービスなどが公開されたこのショーケースイベントは数年前から毎年9月に開催されており、特に年次としては最大の「Alexaイベント」として、Amazonの目指すべき世界観を明確にする傾向があった。ちなみに昨年の大きなテーマは「Amazonのレコメンドエンジンを使ってくれ」…

Image Credit : Amazon

今日、Amazonは十数種類の新たなデバイスやサービスを公開した。

Alexaとのより自然な会話方法、Lunaというクラウドゲームサービスなどが公開されたこのショーケースイベントは数年前から毎年9月に開催されており、特に年次としては最大の「Alexaイベント」として、Amazonの目指すべき世界観を明確にする傾向があった。ちなみに昨年の大きなテーマは「Amazonのレコメンドエンジンを使ってくれ」だったが、今年はこれ以上にない明確なメッセージが込められていた。

すなわち:「Amazonはクラウド監視サービスを販売する」というものだ。

車内ライブビデオから家庭内監視まで、それぞれの機能や製品は有料サービスからなかなか抜け出せないよう、巧妙に設計されている。例えば、外出先でEchoスピーカーをリスニングデバイスに変えるAlexa Guardは、数年前の提供開始時には無料だったが、今日では月5ドルの有料サービスになった。

そしてこれらの製品やサービスはコストをかけて、じわじわと人々のあらゆる生活を監視することを正当化しようとしている。そういう組織的な戦略が明確になりつつあるのだ。お手軽な監視サービスが一般に広まったらどうなるか。警察と結託する町、隣人を怖がらせるご近所さんアプリ「」「Neighbors」、警察に捕まるかとビクビクしている人々。あらゆるポイントでAmazonは彼らの状況や利益をひっくり返すことができる、ということになる。

そして来年、猶予期間が終わればAmazonは警察にだって顔認証を売ることができるようになる。

去年発生した胸糞悪いRingにまつわるニュースを覚えているのならーー人種プロファイル、全国1,300 以上の警察署との結託、8歳の子供部屋でハッキングされたカメラなどなどーーこの戦略はやや驚くべきものじゃないだろうか。

そして今日、Ringは家の内部をマッピングし、定期的な監視やリモートフライトのために飛行する家庭用ドローン「Always Home Cam」を公開した。Amazon最新のスマートディスプレイ「Echo Home10」は旋回式で、ビデオコールやAlexaとお話する時、自分を追尾してくれる。ビデオコールしている時にデバイスが追いかけてくれる、というアイデアはもうすっかりおなじみになったZoomコールだらけの私たちにとって実用的な価値を提供してくれるだろう。(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

AmazonとGoogleの出身者が設立したAbacus.ai、プロジェクトとAIモデルのマッチングで1,300万米ドルを調達

SHARE:

AIサービス向けクラウドプラットフォームを提供するスタートアップのAbacus.aiは7月14日、1,300万米ドルのシリーズAラウンドが終了したことを発表した。また同時に社名をReality EnginesからAbacus.aiに変更することも発表した。同社は昨年、AWSとGoogleでAIプロジェクトをスケーリングした経験を持つチームによって設立された。チームにはSiddartha Naidu…

(左から)Abacus.aiのCEOのBindu Reddy氏、CTOのArvind Sundarajan氏、リサーチディレクターのSiddartha NaiduImage氏
Image credit: Abacus.ai

AIサービス向けクラウドプラットフォームを提供するスタートアップのAbacus.aiは7月14日、1,300万米ドルのシリーズAラウンドが終了したことを発表した。また同時に社名をReality EnginesからAbacus.aiに変更することも発表した。同社は昨年、AWSとGoogleでAIプロジェクトをスケーリングした経験を持つチームによって設立された。チームにはSiddartha Naidu氏(BigQueryの共同製作者)、Bindu Reddy氏(AWSの元AIサービスマネージャー)、Arvind Sundararajan氏(元Uberエンジニア)が含まれている。

CEOのReddy氏とSundararajan氏はかつてPost Intelligenceを共同設立したが、2017年にUberに買収されている。Reddy氏は電話インタビューでVentureBeatにこう語った。

マシンラーニングとディープラーニングは、アルゴリズムについてだけでなくインフラストラクチャやシステムについても同じくらい重要であると考えています。Arvind氏とSiddartha氏はどちらも、大規模でリアルタイムのビッグデータシステムを構築するという点で非常に優れています。このことは私たちにとって本当に有益だと思います。

今回のラウンドはIndex Venturesが主導し、Googleの元CEOであるEric Sc​​hmidt氏や、Googleの創設メンバーであるRam Shriram氏も参加した。Sc​​hmidt氏とShriram氏は昨年のシードラウンドにも参加している。

Abacus.aiは、企業がモデルを生産規模のAI戦略へと昇華させるのを支援する。多くの企業幹部への調査から、FacebookやGoogleといったAIに長けた人材を豊富に持つテック大手以外は、MVP(実用最小限の製品)を超えてAIを実装することに苦労していることがわかった。

同社はユーザのデータセットを評価した後、ニューラルアーキテクチャ検索(NAS)アルゴリズムを通して最適なものを決定する。詳細はAbacus.aiの研究者たちが昨年の秋に発表した論文で説明されている。

また、Abacus.aiは敵対的生成型ネットワーク(GANs)によって生成された合成データをトレーニングモデルに使用している。企業のAI実用化を支援する他のAIサービス会社には、Element AIやAndrew Ng氏のLanding.aiなどがある。

今回調達した資金は、既存サービスの改善、会社の顧客ベースと研究チームの拡大、言語モデルとコンピュータビジョンサービスへの拡大に使用される予定。同社は現在、主に列指向データベースに取り組んでいる。

Abacus.aiはラウンドの一環として、顧客がディープラーニングモデルを迅速に共有したり比較したりすることができるモデルショーケースサービスなどを含むベータ版をローンチしている。同社はベータ版テストに1,200人の協力を得たと述べている。

Abacus.aiは2019年3月に設立され、総額1,800万米ドルを調達している。サンフランシスコを拠点とし、現在22名の従業員を擁している。

※本稿は提携するVentureBeat記事の抄訳です

【via VentureBeat】 @VentureBeat

【原文】