Khari Johnson

Khari Johnson

執筆記事

Googleの労働組合が拡大:Alphabet Workers Unionのこれまで(後編)

SHARE:

(前回からのつづき)同社が米軍のAIイニシアティブ「Project Maven」への関与が明らかになった際にはGoogleに対し数千人規模の従業員が抗議の姿勢を示し、世界中のGoogleオフィスから2万人の従業員がMavenに反対するためのストライキに参加した。セクハラ行為で退職したとされるAndy Rubin氏に9,000万ドルもの退職金を支払ったことや、契約社員への待遇などにも反対運動が起きて…

Photo by PhotoMIX Company from Pexels

(前回からのつづき)同社が米軍のAIイニシアティブ「Project Maven」への関与が明らかになった際にはGoogleに対し数千人規模の従業員が抗議の姿勢を示し、世界中のGoogleオフィスから2万人の従業員がMavenに反対するためのストライキに参加した。セクハラ行為で退職したとされるAndy Rubin氏に9,000万ドルもの退職金を支払ったことや、契約社員への待遇などにも反対運動が起きている。

Googleは2019年には国防総省との契約を終了し、従業員の反対活動と全面的に合意している。しかし、Googleは契約社員に対しスパイ行為をしていると指摘され、労働組合加入者へ報復的な姿勢を見せたとして全米労働関係委員会(NLRB)から告発を受けるなど問題を多く抱えている。

AWUのウェブサイトには「直近では、AI研究者の第一人者であるTimnit Gebru氏を理由なく解雇した。この件でGoogleに対して不信感を抱いた有色人種の労働者を含め、数千人もの怒りを買うことになり、Googleにおける彼らの将来には不透明感が増した」と記されている。

2,600人以上のGoogle社員は先日、Google Walkout for Real Changeに対してGebru氏の解雇を報復的だとする指摘に署名したことが明らかとなっている。Googleが社員から信頼性を確立するために、Googleに対してGebru氏の解雇で何が本当に起きたのかを公開で説明するよう要求している。GoogleがGebru氏を解雇してから2週間も経たない先月、GebruはAIリサーチのワークショップで組合を結成することに対して賛成の姿勢を見せていた。同氏は組合の結成は、企業から研究者を保護するための手段であると表現している。

「私はどのような形でも組合を結成することに意義はあると思うし、多くの希望が生まれると信じています」(Gebru氏)。

Googleの労働組合は、2018年に起きたストライキと2020年1月に始まったCWAとの話し合いを経て結成された。現段階で、Alphabet Workers Unionは米国とカナダの社員のみに参加が限定されており、組合員の総報酬から1%を会費として収集しストライキ用の基金を創設するほか、法的支援やトレーニングなどの支援を行っている。2018年以降、Googleでは企業の慣習に対して改革を求める団体的な行動を実施してきた。

【via VentureBeat】 @VentureBeat

【原文】

BRIDGE Members

BRIDGEが運営するメンバー向けイベント「Tokyo Meetup」では新サービスの紹介やノウハウ共有などを通じて、スタートアップと読者のみなさんが繋がる場所を提供いたします。メンバー登録は無料です。
  • BRIDGE Canvasの購読
  • メンバー向けDiscordご招待
  • BRIDGE Tokyoなどイベントご招待
無料メンバー登録


Googleの労働組合が拡大:利益よりも社会正義を(前編)

SHARE:

Googleとその親会社であるAlphabetの関連企業の従業員たちは労働組合結成(Alphabet Workers Union:AWU)に向け奔走している。50人以上の契約社員が昨年ピッツバーグで組合結成に対して投票したが、AWUは現在200人以上の会員かつ会費が伴う形で運営が行われている。また、Alphabet関連企業であればだれでも参加できる形となった。AWUはCommunications …

Photo by PhotoMIX Company from Pexels

Googleとその親会社であるAlphabetの関連企業の従業員たちは労働組合結成(Alphabet Workers Union:AWU)に向け奔走している。50人以上の契約社員が昨年ピッツバーグで組合結成に対して投票したが、AWUは現在200人以上の会員かつ会費が伴う形で運営が行われている。また、Alphabet関連企業であればだれでも参加できる形となった。AWUはCommunications Workers of AmericaとCoalition to Organize Digital Employeesからの支援を受けて立ち上げられている。

AWUの基本原則には「利益を最大化するのではなく、社会的・経済的正義を優先する」が掲げられている。AWUのウェブサイトでは、「AWUがAlphabetを思慮深い行動を取れるように導くことができると信じている」と述べられている。

GoogleのソフトウェアエンジニアであるParul Koul氏とChewy Shaw氏は、AWUにて委員長と副委員長をそれぞれ務める。同氏らはNewYourk Timesにて、組合が200名上で組織されており、自分たちのテクノロジーへの責任とAIなどの技術がどの様に利用されるのかについて深く観察しているとインタビューに答えた。

「長い期間、Googleで働く何千人もの従業員は職場での懸念事項など多くの疑問を経営陣によって棄却されてきました。私たちの上司たちは、世界中の抑圧的な政府に協力姿勢を見せています。国防総省が利用するAIを開発し、ヘイトグループによる広告から利益を得ているのも事実として挙げられます。また、彼らは有色人種のリテンション問題について必要な対処を行うことができていませんでした」。

(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

BRIDGE Members

BRIDGEが運営するメンバー向けイベント「Tokyo Meetup」では新サービスの紹介やノウハウ共有などを通じて、スタートアップと読者のみなさんが繋がる場所を提供いたします。メンバー登録は無料です。
  • BRIDGE Canvasの購読
  • メンバー向けDiscordご招待
  • BRIDGE Tokyoなどイベントご招待
無料メンバー登録


なぜGoogleはGebru氏を解雇したのか:人の生活に関係する技術を規制する必要性(9/9)

SHARE:

AI研究のオープンネス (前回からのつづき)Abdurahaman氏は、財務上の繋がりを公開することがAI研究者のスタンダードへと繋がるのではないかと指摘している。「例えば医療品のような分野では、自身がどの製薬会社から資金の提供を受け研究を実施しているかなど開示する義務が伴っています。なぜなら、そのバックグランドに研究の方向性やそもそもの前提情報など全てが集約されているから」と述べる。NeurIP…

Photo by Deepanker Verma from Pexels

AI研究のオープンネス

(前回からのつづき)Abdurahaman氏は、財務上の繋がりを公開することがAI研究者のスタンダードへと繋がるのではないかと指摘している。「例えば医療品のような分野では、自身がどの製薬会社から資金の提供を受け研究を実施しているかなど開示する義務が伴っています。なぜなら、そのバックグランドに研究の方向性やそもそもの前提情報など全てが集約されているから」と述べる。NeurIPS AIカンファレンスでは、今年初めて、利益相反の可能性、また、研究が社会に対して与える影響を明記することを義務付けている。

AI倫理とコンピューターサイエンス

ビッグテックとビッグタバコを比較した研究で示されているように、学術界は倫理学を別の分野として維持するべきだとされている。これは、生命倫理学と生物学が異なる分野とされていることと似ている。しかし、Abdurahaman氏は、産業界と学術界は既に分離化されており、この手法に対して懐疑的な姿勢を見せている。

「何かを想像した人が悪い、それに対して何か異論を述べる人たちを区分けするのではなく、さらに批判的な倫理的な実践が必要です」

倫理学の研究者と機械学習の研究者の一部では、AIと労働者AIと気候変動AIと海洋学など枠組みを超えた取り組みを推奨している。実際、Gebru氏はGoogle Researchのチームに対して初めて社会学者を招集し、Fairenessに対するフレームワークを導入させるなどしていた。

まとめ

2018年にGoogleがPentagonと共同で軍事に特化したドローン映像コンピュータービジョンのプロジェクト「Maven」に取り組んでいるという情報が出た際には、数千人規模の従業員が反対の声を上げていた。その後にも、セクハラなどを含めた抗議として、世界中のGoogle社員が退職運動に参加する動きが見られた。特にAI倫理委員会は数日で解散する結果となるなど迷走が続いていた。

Gebru氏の解雇から2週間(訳註:原文の掲載日は12月16日)が経過したが、Googleではまだ問題が多く残っているように思える。Bussiness Insiderによれば同社AIチーフのJeff Dean氏がオールハンズエンドオブイヤーコールを中止したことを明らかとしている。本誌がGebru氏にインタビューした先週、彼女はBBCSlateMIT Tech Reviewなどのメディアで多くを語っている。

アルゴリズムの偏りに関連した法案を支援した実績のある議員は本日、Googleのサンダー・ピチャイCEO に書簡を送り、Google が大規模言語モデルにおける偏りをどのように緩和しているのか、Gebru氏に起こったことをさらに調査して多様性を促進する計画をどのようにしているのかを尋ねた。

署名者にはYvette Clarke議員(D-NY)とCory Booker上院議員(D-NY)が含まれている。2人は企業にアルゴリズムに偏りがないかどうかを評価することを義務付ける2019年の法案「Algorithmic Accountability Act(アルゴリズム説明責任法)」の共作者である。Booker氏は今年初め、連邦政府の顔認証モラトリアムを共催一人でもある。金融融資における偏りを疑問視したElizabeth Warren上院議員(D-MA)や、抗議活動で顔認証のような技術の使用に疑問を呈したRon Wyden上院議員(D-OR)も署名している。

そしてまさに今日だ:Googleの倫理AI チームのメンバーは追加の要求をピチャイ氏に送って、ポリシーの変更とGebru氏の仕事を取り戻すことを求めている。

今年初め、筆者は機械学習の行く末に関するレポートを書いた。特に、監視や抑圧、白人至上主義に対峙するAI企業と、公平な世界を実現するために活動している企業についてフォーカスしていた。それ以降、実際に私たちが直面したのは。AI Now Instituteが触れているように、この分野が一歩立ち止まる時がきたということだ。

Gebru氏の例を見ても分かるように、多様性に対する投資の欠如がよろしくない労働環境を生み出しかねないことを浮き彫りにした。また、企業のリーダーがそうした問題を直視しない場合、従業員は人の人生に関わるAIの利用に対して従業員たちが世間に対して注意喚起すべきかどうか、という疑問にも繋がっていく。またアルゴリズムの偏りをできるだけ少なくするということは、世界共通認識であるにも関わらず、多種多様な従業員を採用しないというのはまさに失敗の根源を作り出していると言えるだろう。

この記事のために話を聞いた有識者たちは、人間の生活を形作る技術をある程度規制する必要があることに同意していると感じた。彼らはまた、より強力な説明責任と執行メカニズム、制度や政府政策の変更を求めている。Gebru氏の例によって提起された横断的な問題に対処するための措置は、学術研究の独立性を確保するためだけではなく、幅広いテックワーカーたちによる組合の必要性や、もっと大きな組織連合に至るまで幅広い懸念に対して対応する必要があると感じた。

【via VentureBeat】 @VentureBeat

【原文】

BRIDGE Members

BRIDGEが運営するメンバー向けイベント「Tokyo Meetup」では新サービスの紹介やノウハウ共有などを通じて、スタートアップと読者のみなさんが繋がる場所を提供いたします。メンバー登録は無料です。


  • BRIDGE Canvasの購読
  • メンバー向けDiscordご招待
  • BRIDGE Tokyoなどイベントご招待

無料メンバー登録

なぜGoogleはGebru氏を解雇したのか:課税による公益テクノロジーへの投資という考え方(8/9)

SHARE:

大手テック企業への課税 (前回からのつづき)Abdurahman氏、Colclough氏、McNealy氏はテック企業への増税を強く支持している。その税金から連邦取引委員会(FTC)の規制監督下にあるような学術研究機関や執行機関に資金を提供できるだけでなく、企業が依存する公共インフラストラクチャや学校をサポートすることもできる。 「大企業が研究に資金を提供することが認められてきた理由の一つは、そう…

Photo by Deepanker Verma from Pexels

大手テック企業への課税

(前回からのつづき)Abdurahman氏、Colclough氏、McNealy氏はテック企業への増税を強く支持している。その税金から連邦取引委員会(FTC)の規制監督下にあるような学術研究機関や執行機関に資金を提供できるだけでなく、企業が依存する公共インフラストラクチャや学校をサポートすることもできる。

「大企業が研究に資金を提供することが認められてきた理由の一つは、そうしなければ研究できなかった、資金がないために研究ができなかったからです。ここで基本に立ち返り、「一般財源に支払われたお金を大学が確実に受け取れるようにするが、結論に影響を与えることはない」ことを確認すべきです」。

Colcough氏はこのように述べ、法人税が既存の差別禁止法の執行を強化できると付け加えた。公民権法のような既存の法律の執行、特に公的資金に関わる問題については、6月にAIとコンピューティングの黒人専門家たちのグループが署名した公開状で取り上げられている。課税することで執行に資金が回るようになれば、新進気鋭のスタートアップに規制上の注意が引き付けられる可能性もある。McNealy氏は法人に相当するものと同様に「悪い影響」を伴うことがあると述べた。

大手テック企業の納税義務を再検討するという考えは公的にも支持されている。バイデン次期大統領はキャンペーンでAmazonにより多くの所得税を払わせることを約束し、EUは「ゲートキーパー」であるテック企業に10%の消費税を課す法案を検討している

課税により、価値の尺度を収益性に依存しないテクノロジーにも資金を提供できる。Abdurahman氏は世界には公的なツールが必要であり、人々は身の回りのあらゆるテクノロジーを提供する一握りの企業を超えて、想像力を広げる必要があると述べた。

公共部門のAIはしばしば金融引き締め政策として語られるが、Abdurahman氏は公益技術を非営利で、社会的利益のために設計され、社会を代表する連合によって作られると定義している。彼女はそこに研究者のみならずその技術の影響を最も受ける人々も含めるべきだと考えている。

「公益技術はまったく新しい世界の可能性を開きます。「この実に不完全な算法をどうやって修正するのか?」を理解するのではなく、追求する必要があります。秩序を保つために民間の技術に頼るのなら、望みはありません。議員と政策立案者は公益技術に資金を提供する責任があると思います」。(Abdurahman氏)

こうした取り組みの一部は利益を生まないかもしれないが、AIを考える価値は収益性だけではないはずだとChowdhury氏は述べた。(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

BRIDGE Members

BRIDGEが運営するメンバー向けイベント「Tokyo Meetup」では新サービスの紹介やノウハウ共有などを通じて、スタートアップと読者のみなさんが繋がる場所を提供いたします。メンバー登録は無料です。


  • BRIDGE Canvasの購読
  • メンバー向けDiscordご招待
  • BRIDGE Tokyoなどイベントご招待

無料メンバー登録

なぜGoogleはGebru氏を解雇したのか:AI倫理研究から企業投資を排除できるのか(7/9)

SHARE:

AI倫理研究から企業投資を排除 (前回からのつづき)Gebru氏の解雇から数日間で、2,000人以上のGoogle社員が「前例のない研究検閲」を主張する公開状に署名した。その余波で一部のAI研究員は同社が事件によって提起された不満に対処するまでGoogle AIの論文をレビューすることを拒否すると述べた。広く言えば、Googleで起こったことは、実際に認められている学術研究全体がもつ影響力について…

Photo by Deepanker Verma from Pexels

AI倫理研究から企業投資を排除

(前回からのつづき)Gebru氏の解雇から数日間で、2,000人以上のGoogle社員が「前例のない研究検閲」を主張する公開状に署名した。その余波で一部のAI研究員は同社が事件によって提起された不満に対処するまでGoogle AIの論文をレビューすることを拒否すると述べた。広く言えば、Googleで起こったことは、実際に認められている学術研究全体がもつ影響力について疑問を投げかけている。

来年カリフォルニア大学バークレー校の准教授となるRediet Abebe氏は、「NeurIPS Resistance AI」のワークショップで、Googleからの研究資金を受け入れない理由を説明した。また、学界の上級教員は大手テックの研究資金について話すべきだと意見している。

「資金源と自分の研究内容とを分離することは、1人ならおそらく可能かもしれませんが、全体となると影響力をもつことを認めなければなりません。研究者の多くが同じ資金源から資金を受け取っている場合、共にその資金源に報いる方向へと研究が傾いていく可能性があります」。(Abebe氏)

一方、弁護士のJasmine McNealy氏はフロリダ大学のジャーナリズムの准教授とハーバード大学のバークマンセンターに所属する教員を兼務している。McNealy氏は最近、AI倫理研究のためにGoogleからの資金提供を受けた。彼女は、現在の経済環境であれば、公立大学がテック企業だけでなく事実上あらゆる資金源からの資金提供を断ることができるという考えに懐疑的だ。

「州の立法局や知事が「この種の組織や人々からの資金は好ましくない」と言わないかぎり、大学、特に公立の大学が組織からの資金の受け取りをやめることはないと思います」。(Abebe氏)

公的な研究投資はますます増える可能性がある。バイデン政権の政策は、人工知能も含め多くの分野での研究開発資金として3,000億ドルを掲げている。Googleの研究検閲が告発される一方、AI研究者は企業の影響力に疑問を投げかけ、Big Tobacco(大手タバコ会社)が過去数十年にわたり医療研究へ投資してきたこととの比較を行っている。深層学習の時代におけるテック大手、一流大学、その他すべての人々の計算処理能力の格差と不平等の拡大を指摘するAI研究者もいる。

Googleは他のどの企業よりも多く、アカデミックなAI人材を終身雇用しており最も多くのAI研究を生みだしている(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

BRIDGE Members

BRIDGEが運営するメンバー向けイベント「Tokyo Meetup」では新サービスの紹介やノウハウ共有などを通じて、スタートアップと読者のみなさんが繋がる場所を提供いたします。メンバー登録は無料です。


  • BRIDGE Canvasの購読
  • メンバー向けDiscordご招待
  • BRIDGE Tokyoなどイベントご招待

無料メンバー登録

なぜGoogleはGebru氏を解雇したのか:AIによって生まれる偏見をなくす(6/9)

SHARE:

(前回からのつづき)最近の多くの出来事から、内部告発者の保護が得策だと言える理由が示されている。2019年秋のNatureの調査によると、病院で使用されているアルゴリズムが米国内の何百万人もの黒人に対する差別に関わっている可能性があることがわかった。最近ではアルゴリズムがどのようにして黒人の腎臓移植受診を妨害したかが明らかになっている。 さまざまな理由から、この記事のソースは内部告発者保護を慎重に…

Photo by Deepanker Verma from Pexels

(前回からのつづき)最近の多くの出来事から、内部告発者の保護が得策だと言える理由が示されている。2019年秋のNatureの調査によると、病院で使用されているアルゴリズムが米国内の何百万人もの黒人に対する差別に関わっている可能性があることがわかった。最近ではアルゴリズムがどのようにして黒人の腎臓移植受診を妨害したかが明らかになっている。

さまざまな理由から、この記事のソースは内部告発者保護を慎重にサポートしている。Colclough氏は内部告発者法のような特別な保護の形を支持しているが、これは大きな計画のほんの一部であるべきだと信じている。このような法律は雇用、医療、融資など、すでに偏見がみられる分野でAIが潜在的に展開され、生活に害を及ぼす可能性がある場合に特に有益だ。

Colclough氏は別の選択肢も提起している。政府の規制当局に苦情を申し立てる権利を市民に与えることだ。GDPR(EU一般データ保護規則)により、企業が法律に準拠していないと判断すれば市民は国のデータ機関に報告することができ、国のデータ機関には調査する義務が発生する。偏見からの解放と救済への道は、昨年提案されたアルゴリズムの権利章典の一部だ。

Chowdhury氏はさらなる保護をサポートすると述べたが、内部告発は最後の手段であるべきだと警告した。彼女は公になっている内部告発者が保守派や白人至上主義者によって「ダンクシュートを試みる左翼のSJW(社会正義戦士)」として描かれる可能性があるとして懸念を表明した。

また、内部告発が検討される前に建設的な反対意見を表明したい従業員のために企業側が道を確立させておくべきだとChowdhury氏は考えている。Googleの社員はモデルに関連した不満や不安を共有するための内部的な方法をもっていると、今秋のプレスイベントでVentureBeatおよび他の報道機関に語った。Googleの広報は、社内でもっとも批判を集めたユースケースやモデルを具体的に発表することを拒否した。

だがAbdurahman氏は、こういった法律がどの労働者を保護するのかを問い、「一連の調査は現段階で必要とされているものよりも保守的だと思います」と述べた。(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

BRIDGE Members

BRIDGEが運営するメンバー向けイベント「Tokyo Meetup」では新サービスの紹介やノウハウ共有などを通じて、スタートアップと読者のみなさんが繋がる場所を提供いたします。メンバー登録は無料です。


  • BRIDGE Canvasの購読
  • メンバー向けDiscordご招待
  • BRIDGE Tokyoなどイベントご招待

無料メンバー登録

なぜGoogleはGebru氏を解雇したのか:内部告発のためのガイドラインの必要性(5/9)

SHARE:

AI研究者に向けた内部告発の保護 (前回からのつづき)GoogleがGebru氏を解雇する数日前から、彼女がチーム内で上手くいっていないことは彼女のツイートからも明らかであった。あるツイートでは、AI倫理研究者保護に対する規制について問いかけるツイートをしていた。 Is there anyone working on regulation protecting Ethical AI researc…

Photo by Deepanker Verma from Pexels

AI研究者に向けた内部告発の保護

(前回からのつづき)GoogleがGebru氏を解雇する数日前から、彼女がチーム内で上手くいっていないことは彼女のツイートからも明らかであった。あるツイートでは、AI倫理研究者保護に対する規制について問いかけるツイートをしていた。

Pinterestの元従業員Ifeoma Ozoma氏は、Omidyar Networkに向けたテクノロジー企業における内部告発者のニーズについてまとめたレポートを完成している。同レポートでは、同氏が経験したPinterestでの嫌な思い出や人種差別に関するレポートが記されている。

同氏はプロジェクトの一環で、来年度に向けテクノロジー業界に向けた内部告発のためのガイドラインを発表する予定だとする。また、そうした内部告発者に向けて身体的・精神的な支援を目的とした資金提供活動も開始する予定だという。同氏は内部告発により個人そして家族が健康保険を失うことになるという実情を述べ、失うもののリスクについてもフォローされるべきというスタンスを見せている。

「声を上げられる環境が整っていること自体が抑止力になりますし、その発言によりパブリックな利益がもたらされる情報であれば、大きな金銭的な結果にも繋がるでしょう」。

カリフォルニア大学バークレー校のCenter for Law and Technologyの共同ディレクター、Sonia Katyal氏は、倫理研究者のための内部告発者法の強化を支援している。彼女はVentureBeatにこう話した。

「現在の法律は実に不十分だと断固として主張します。心配すべきなのは、(Gebru氏のような)非常に才能のあるすべての研究者がこのような場に雇われ、口を封じられてしまう世界です。それが現実となれば内部告発者の保護は必要不可欠になります」。

昨年UCLA・ロー・レビューに発表された論文で、AIと公民権が交差するときに生じる問題において、内部告発者の保護が必要なツールの一部になるとKatyal氏は論じている。彼女は内部告発者の保護は、企業が自主規制に依存している状況やアルゴリズムの偏見に対抗するために特に重要になる可能性があると主張する。Cambridge AnalyticaによるFacebookユーザーデータの不正取得がChristopher Wylie氏に内部告発されたように、ビッグデータとAIの悪用は内部告発者によって世に出るものだ。当時、Katyal氏はWylie氏の報告内容を「アルゴリズムの偏見が現代社会に与える潜在的な影響からみれば氷山の一角にすぎない」と表現した。

UCLA・ロー・レビューの論文にはこう書かれている。

「営業秘密法や著作権法が潜在的に不透明性、不可解性、および開示の障害になりうることから、内部告発がAIを考える上で適切な手段のひとつなのかもしれません」。

ビッグデータの時代に説明責任と透明性を向上させるにあたって、アルゴリズムに独占所有権があるとする企業の主張は主な障害となる。Katyal氏はアルゴリズムに関する情報を開示しない企業の権利と、市民が差別のない世界に暮らす個人の権利との衝突を懸念している。政府機関が民間企業とのデータ利用やAIサービスの契約を結ぶことが増えるにつれて、この問題はますます大きくなっていくだろうと彼女は警告する。

他の研究者らも、民間企業が一般的に研究カンファレンスの論文法廷あるいは規制当局との間でコードを共有することは少ないと指摘している。

米国にはすでに内部告発者保護法など労働者を報復から保護するさまざまな法がある。また、営業秘密防衛法(DTSA)もある。2016年に可決されたこの法律には、雇用主による営業秘密の不正流用の申し立てに対して保護を提供するという条項が含まれている。しかしKatyal氏はこの議論は限定的だとして、DTSAが規制されていない巨大なAIの世界においては小さなツールだと主張した。

企業は、前に出たがったり情報や懸念を一般の人々と共有したがったりする従業員には、とにかくこれは機密情報だと説明するのが彼らを黙らせる最強の方法だということを知っています。(Katyal氏)

(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

BRIDGE Members

BRIDGEが運営するメンバー向けイベント「Tokyo Meetup」では新サービスの紹介やノウハウ共有などを通じて、スタートアップと読者のみなさんが繋がる場所を提供いたします。メンバー登録は無料です。


  • BRIDGE Canvasの購読
  • メンバー向けDiscordご招待
  • BRIDGE Tokyoなどイベントご招待

無料メンバー登録

なぜGoogleはGebru氏を解雇したのか:テック巨人に立ち向かう方法(4/9)

SHARE:

集団行動・組合連合 (前回からのつづき)J.Khadijah Abdurahman氏はコロンビア大学にてパブリックテクノロジープロジェクトWe Be Imagingを率いており、近年はNeurIPS 2020にてResistance AIワークショップを実施している。GoogleがGebru氏を解雇してからすぐ、同氏はAI倫理分野のモラルが崩壊しているという意図の記事を書いた。 同氏はGebru氏…

Photo by Deepanker Verma from Pexels

集団行動・組合連合

(前回からのつづき)J.Khadijah Abdurahman氏はコロンビア大学にてパブリックテクノロジープロジェクトWe Be Imagingを率いており、近年はNeurIPS 2020にてResistance AIワークショップを実施している。GoogleがGebru氏を解雇してからすぐ、同氏はAI倫理分野のモラルが崩壊しているという意図の記事を書いた。

同氏はGebru氏の解雇を、不動的かつ制度的な組織のレジスタンスを映し出していると述べる。社会正義を貫くための環境への必要性についても触れ、より意味のある研究を生み出すにはAI倫理学に関する議論を研究者と「巨人」という考えから大きくシフトする必要性があると述べている。また彼女は、この件が中央アフリカのコバルト鉱山労働者が経験した被害から、ソーシャルメディアの誤報によって助長される不正に至るまで、テックのサプライチェーンで発見された暴力行為に対処するためには集団的な行動が必要になると訴えている。

今求められているのは研究者やエンジニアのみでなく、Uberの運転手やAmazon倉庫の労働者、モデレーターなど含めより広範囲なテックワーカーを定義することだと同氏は述べる。

「ビッグテックと一人の人間が対峙するような状況は望ましくありません。資金提供や、共に対峙できるような広範囲な連合が求められています」。

NeurIPSでは、まさに連合的な集団行動のアイデアが述べられた。AIに興味を持つ研究者向けのワークショップResistance AIにてGebru氏は今でも企業にて研究者としてリサーチをする人々の考えを支持する理由について述べている。また、2018年にGoogle walkoutのオーガナイザーを務めたMeredith Whittaker氏Claire Stapleton氏に起きたことに重ね合わせて自身の現状について語った。パネルでは、Gebru氏は団体にすることで企業内におけるAI研究者を守ることができるか、という点について問われてこう答えている。

「私たちが行動すべきことは大きく2つあります:私たちはまず、何が今起きているのかを認識し、何ができるのか、どういった変化を起こせるのかについて見極めなければいけません。それと同時に、本当に変化をもたらせなければいけないものを考える時間を取り、政策の変更などだけを目的に行動を急がないことです。ただ、組合や連合の必要性に関しては重要視するべきだと感じていますし、多くの希望があると思います」。

今年秋に実施したインタビューにて、Whittaker氏はFacebookの従業員による集団的な退職などの行動と内部告発は、テックワーカーにとって一つの武器であると表現している。(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

BRIDGE Members

BRIDGEが運営するメンバー向けイベント「Tokyo Meetup」では新サービスの紹介やノウハウ共有などを通じて、スタートアップと読者のみなさんが繋がる場所を提供いたします。メンバー登録は無料です。


  • BRIDGE Canvasの購読
  • メンバー向けDiscordご招待
  • BRIDGE Tokyoなどイベントご招待

無料メンバー登録

なぜGoogleはGebru氏を解雇したのか:ビッグテックがAI倫理研究を進める本当の理由(3/9)

SHARE:

無意味な自主規制 (前回からのつづき)Chowdhury氏(Parity CEO)は、ビッグテック内における倫理チームが単に倫理洗浄活動以上のことをしているとは信じられなくなりつつあると述べる。また、Gebru氏の解雇は企業運営における新たな懸念を持ちあがらせたとも指摘していた。 彼女はGebru氏に起きたことが学術レベルの研究に対する産業界の介入の面でより高いレベルの精査や懸念に繋がるだろうとし…

Photo by Deepanker Verma from Pexels

無意味な自主規制

(前回からのつづき)Chowdhury氏(Parity CEO)は、ビッグテック内における倫理チームが単に倫理洗浄活動以上のことをしているとは信じられなくなりつつあると述べる。また、Gebru氏の解雇は企業運営における新たな懸念を持ちあがらせたとも指摘していた。

彼女はGebru氏に起きたことが学術レベルの研究に対する産業界の介入の面でより高いレベルの精査や懸念に繋がるだろうとし、GoogleがGebru氏を解雇したことはより広範囲な意味合いでAI倫理コミュニティーに対する信憑性・信頼性に関わると言及している。

ビッグテックとAI倫理について有識者であれば、もしかしたらビッグテックによる自主規制はほぼ不可能であるという結論に達しているかもしれない。過去数年でより注目され出している問題だが、例えばEUの規制当局がGoogleに対して独占禁止法で訴訟した10年前からそうした結論は見えていたように思う。

Colclough氏は(Why Not Lab・ディレクター)は、ビッグテックとAI倫理についてもはや手が負えない状況であることに同意し、彼らが規制を避ける手段としてAI倫理研究に参入していると主張する。「多くの政府がビッグテックからの働きかけを受け続けた結果、自主規制を放置することで規制による責任から逃れようとしている」と同氏は述べている。同氏はGebru氏を解雇した経緯に検閲行為があったことは疑いの余地がないとし、「Googleは自分たちの意図とは違う意見に対して、黙らすという手段を用いたのです。まさに彼らの行動が自主規制の信頼性の乏しさを示している」と断罪した。

米国では規制当局のビッグテックに対する規制処置は遅れ気味だ。しかし、最近ではいくつかの独占禁止法に抵触するとして訴訟が動いている。先週のFacebookの独占禁止法違反に先立ち、Googleは司法省から訴訟に対峙していたが、これは1990年代以降のビッグテックに対する米国における訴訟では初となる。同訴訟では60ページにわたる起訴状で構成され、GoogleがAIとユーザーデータを利用し同社の優位性を保とうとしていることを指摘しており、数日中に追加の訴訟が予定されているとしている。今年の秋には、ビッグテックの独占を防ぎ市場に競争をもたらすために独占禁止法自体の改革が必要であるという議会の結論に至っている。(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

BRIDGE Members

BRIDGEが運営するメンバー向けイベント「Tokyo Meetup」では新サービスの紹介やノウハウ共有などを通じて、スタートアップと読者のみなさんが繋がる場所を提供いたします。メンバー登録は無料です。


  • BRIDGE Canvasの購読
  • メンバー向けDiscordご招待
  • BRIDGE Tokyoなどイベントご招待

無料メンバー登録

なぜGoogleはGebru氏を解雇したのか:第三者機関によるAI監査の必要性(2/9)

SHARE:

第三者機関によるアルゴリズム監査の必要性 (前回からのつづき)Chiristina Colclough氏はWhy Not Labでディレクターを務め、またGlobal Partnership on AI(GPAI)の運営委員会メンバーでもある。GPAIは今年6月に米国、EUを含む15カ国のメンバーで発足し、今月初めにはブラジルを含む3カ国が新たに選出された。同氏に「Googleにアドバイスしている…

Photo by Deepanker Verma from Pexels

第三者機関によるアルゴリズム監査の必要性

(前回からのつづき)Chiristina Colclough氏はWhy Not Labでディレクターを務め、またGlobal Partnership on AI(GPAI)の運営委員会メンバーでもある。GPAIは今年6月に米国、EUを含む15カ国のメンバーで発足し、今月初めにはブラジルを含む3カ国が新たに選出された。同氏に「Googleにアドバイスしているのはいったい誰なのだろうか?」と質問した際、彼は「アルゴリズムを評価するために独立した外部監査機関が必要」であることについて触れていた。

「新しい技術を開発するに際して、リスクの評価や人権に対する影響をきちんと評価する必要性は絶対的にあるでしょう」。

今年初めに発表された、企業が倫理原則を実践する方法について論じられたレポートでは、サイバーセキュリティー企業がバグ発見の報奨金を支払うようなスキームをAIの監査アルゴリズム・バイアスに対して第三者機関を創設することが提案されている。同論文では、学会や産業界より影響力のある著名人が60名程度選出され共同で参画している。

カリフォルニア州で先月Prop25が議題に上がり、仮に可決という結果に収まっていれば、まさに同法案がリスク評価アルゴリズムの独立した外部監査を要求していただろう。AIの公的な説明責任における実際の事例としては、アムステルダムとヘルシンキが共同でサービス提供におけるAIの用途やデータセットについて追跡可能な仕組みを導入している。(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

BRIDGE Members

BRIDGEが運営するメンバー向けイベント「Tokyo Meetup」では新サービスの紹介やノウハウ共有などを通じて、スタートアップと読者のみなさんが繋がる場所を提供いたします。メンバー登録は無料です。


  • BRIDGE Canvasの購読
  • メンバー向けDiscordご招待
  • BRIDGE Tokyoなどイベントご招待

無料メンバー登録