Facebook、攻撃的ミームとヘイトスピーチを阻止するための「ヘイトフルミームチャレンジ」を発表

Facebookは、「ヘイト」ミームがネット上に出現するのを防ぐための新しい取り組みを発表しました。 「ヘイトフルミームチャレンジ」と呼ばれるこの新しいアルゴリズムは、ジャーナリストや研究者がレビューにアクセスできるため、Webを閲覧するときに「危険なミーム」を「ポジティブ」にして「人々を安全に保つ」ことができます。

まず、フェイスブックが新たに発表した憎悪のミームを抑制するプログラムの概要を簡単に知りたい場合は、 Memology 101のビデオ ここに:

あなたがビデオを見なかった場合のために、 facebook.com、Douwe Kiela(研究科学者)、Hamed Firooz(応用研究科学者)、およびAravind Mohan(データ科学者)は、有害なコンテンツが「テクノロジー業界全体および社会全体に影響を与える」と述べています。

上記に加え、ヘイトフルミームチャレンジの背後にある多くの売り込みのXNUMXつと、それが達成することを目指しているものを以下に示します。

「私たちは、AI研究者がマルチモーダルヘイトスピーチを識別するための新しいシステムを開発するのを支援するために特別に設計されたデータセットを作成し、現在共有しています。 このコンテンツは、テキストや画像などのさまざまなモダリティを組み合わせているため、マシンが理解しづらくなっています。

Hateful Memesデータセットには、Facebook AIによって作成された10,000以上の新しいマルチモーダルの例が含まれています。 研究者がデータセットを使用して作業をサポートできるように、ゲッティイメージズから画像のライセンスを取得しました。 ベースライントレーニング済みモデルのコードもリリースしています。

また、DrivenDataが主催し、総額$ 100,000の賞金プールを提供する、初めてのオンラインコンテストであるHateful Memesチャレンジも開始します。 この課題は、NeurIPS 2020競争トラックの一部として受け入れられました。」

Facebook AIとHateful Memes Challengeは、XNUMX人の科学者とFacebookチームによって、現時点で最高のソリューションであると言われています。 ただし、チームは潜在的な誤用を防止する方法も検討しているため、アクセスが制限されます。

つまり、参加者(ジャーナリストと研究者)は、これらのデータの使用、保存、および処理方法に関する厳密な利用規約に同意する必要があります。

さらに、チームがAIアルゴリズムを支援して、不快な例を潜在的な誤検知から区別しようとしていることもわかります。 分類の決定が実行可能であることを確認するために、チームは悪意のある表現を明確に定義するために次の例を作成しました。

「民族、人種、国籍、移民ステータス、宗教、カースト、性別、性同一性、性的指向、および障害や病気などの特性に基づく人々への直接的または間接的な攻撃。 私たちは、攻撃を暴力的または非人間的(動物などの非人間的なものと比較する)のスピーチ、劣等感のある発言、および排除または分離の要求と定義します。 悪意のある犯罪をあざけることも、悪意のある表現と見なされます。」

最後に、チームはFacebookで「差別的発言」やその他の「有害なコンテンツ」を検出するAIシステムの改善を進めていると言われています。 ただし、チームは、「人々を安全に保つ」ために、ヘイトフルミームチャレンジがFacebookを超えて他のプラットフォームに広がることを望んでいます。