Call of Dutyの音声チャットはAIによってモデレートされる予定です

コール・オブ・デューティロビーと音声チャットは、常に有毒であるという評判があり、COD 4とMW2(2009)の時代にさかのぼります。

Activisionは長年にわたってこの動作を何度も取り締まろうとしてきましたが、テキストだけに比べて音声チャットをモデレートすることは非常に困難です。

まあ、COD開発者は解決策を見つけたかもしれませんが、ゲームのコミュニティとの格差を引き起こすことがほぼ保証されています。

のリリースでロールアウト現代の戦争3、Call of Dutyは、AIを使用してロビー音声チャットを緩和し、有毒な行動と戦うことになります。

Toxmod AIは、Call of Dutyの音声チャットを緩和します

Warzone 2 AI

報告によると、ActivisionはModulateという会社と提携して、Call of DutyにToxmod AIを導入しています。

このAIは「プロアクティブな音声チャットモデレーションソリューション「それは否定的な行動を閉鎖することを期待してロビーを監視します。

WebサイトToxmod」を明らかにします」トリアージ音声チャットは悪い行動にフラグを立てるためにバイスチャットを行い、各会話のニュアンスを分析して毒性を決定し、関連する正確なコンテキストを提供することにより、モデレーターが各インシデントに迅速に対応できるようにします。」

ソフトウェア自体がプレーヤーに対して即時の行動をとらないことは注目に値します。代わりに、代わりにモデレーターにレポートを送信します。これらのレポートは分析され、その後、罰がケースバイケースで配布されます。

CODコミュニティは、AIの音声チャットモデレーションに分割されました

8月30日にTwitterに行く、人気のあるCall of Dutyアカウントモダンワルゾーネそのフォロワーに彼らに」と頼みました考え「新しいモデレーションシステムについて。

応答は混ざり合っており、一部のプレイヤーが機能を祝い、主張して​​いる」私はそれが本当に本当に憎むべきスピーチを検出し、それらの人々を禁止することができるという事実のためにそれが好きです。「他の人はあまり熱心ではありませんでした、主張して​​いました」それはひどい考えだと思います。タラで有毒であることは、触れてはならない主食です。

一日の終わりには、システムがライブになったときにどの程度厳格であるかを確認する必要があります11月10日MW3のリリースに加えて。懸念はありますが、多くのシャドウバンにつながる可能性がありますが、ロビーの品質を向上させる可能性もあります。