Upgrade to Pro — share decks privately, control downloads, hide ads and more …

ウェブ・ソーシャルメディア論文読み会 - Machine-Made Media: Monito...

ウェブ・ソーシャルメディア論文読み会 - Machine-Made Media: Monitoring the Mobilization of Machine-Generated Articles on Misinformation and Mainstream News Websites

ウェブ・ソーシャルメディア論文読み会 第24回で紹介した論文です。

Takuro Niitsuma

December 17, 2024
Tweet

More Decks by Takuro Niitsuma

Other Decks in Research

Transcript

  1. 読み手の自己紹介 • 新妻巧朗(朝日新聞社メディア研究開発センター) • 直近の経歴 • 2019〜2021 奈良先端科学技術大学院大学(修士) • 2021〜

    朝日新聞社メディア研究開発センター • 興味の範囲 • 自然言語処理 • 特にテキスト分析手法 • 計算社会科学 • (主にオンラインコミュニティにおける)情報拡散の研究 • 直近ではLLMがネット上に与える影響の研究も 1
  2. 論文の概要 Machine-Made Media: Monitoring the Mobilization of Machine- Generated Articles

    on Misinformation and Mainstream News Websites • ICWSMの2024年の会議で発表された論文 • 著者はHans W. A. Hanley, Zakir Durumeric • 両者ともスタンフォード大学。おそらくPhD学生とPI。 • インターネットセキュリティなどをやっている研究室 • 学生はネット上の誤情報や陰謀論に関する研究を中心にやってきている模様 • PIは複雑系ネットワークを計測可能にして人間の行動からセキュリティ上の弱点 などを発見するなど、やっている模様 2
  3. データ(ニュース記事)の収集 (1/4) • 英語圏のニュース記事をスクレイピングして収集 • 対象は2022年1月1日から2023年5月1日までのニュース記事 • これはChatGPTのリリース時期を含む前後の1年程度を想定 • 3,074のニュースサイトを対象

    • 対象のウェブサイトのリストをMedia Bias/Fact Check*と先行研究 (Hanley, Kumar and Durumeric, 2023)**によって「ニュース」とラベ ル付けされているドメインを集めて構成されている • メディアの規模や信頼性を問わず集めている 7 * https://mediabiasfactcheck.com/ ** A Golden Age: Conspiracy Theories' Relationship with Misinformation Outlets, News Media, and the Wider Internet
  4. データ(ニュース記事)の収集 (2/4) • 対象のニュースサイトを次の条件でニュースサイトを分類 • 信頼できないサイト • Media Bias/Fact Checkによって「陰謀/疑似科学」とラベルづけされ

    ているドメイン • あるいは(Hanley, Kumar and Durumeric, 2023), (Barret Golding, 2022)*, (Szpakowsk, 2020)**によって「信頼性の低い」、あるいは 「誤報」、「偽情報」のラベルがつけられたドメイン • このラベルが与えられたサイトの例 • realjewnews.com, davidduke.com, thegatewaypudit.com, breitbart.comなど 8 * https://iffy.news/ ** https://github.com/several27/FakeNewsCorpus
  5. データ(ニュース記事)の収集 (3/4) • 信頼できるサイト • Media Bias/Fact Checkによって「center」「center-left」「center- right」とラベル付されたドメイン •

    あるいは(Hanley, Kumar and Durumeric, 2023), (Barret Golding, 2022)*, (Szpakowsk, 2020)**によって「主流」あるいは「信頼でき る」とラベルづけされているドメイン • このラベルが与えられたサイトの例 • washingtonpost.com, reuters.com, apnews.com, cnn.com, foxnews.comなど • 2,015サイトが対象となった。 9 * https://iffy.news/ ** https://github.com/several27/FakeNewsCorpus
  6. データ(ニュース記事)の収集 (4/4) • メディアの規模の層別化には「Google Chrome User Report (CrUX)」によって提供されるランキングデータを利用。 ランクのオーダーを以下に分類 •

    Rank < 10K (125サイト) • 10K < Rank < 100K (511サイト) • 100K < Rank < 1M (1,164サイト) • 1M < Rank < 10M (802サイト) • Rank > 10M+ (472サイト) 10
  7. 合成ニュースの分類器 (1/2) • 言語モデルを使った分類器を学習 • ベースモデルはDeBERTa (deberta-v3-base)* • いわゆる一般的な文分類タスクでのFine-tuning •

    学習データ • Turing BenchmarkやGrover, GPT-3.5に生成させたものなどからなる約 33,000件の合成記事と同数の人間が書いた記事を利用 • 頑健性を高めるため、生成記事に対してT5-1.1-XLによる文章の書き換 えやDipperによるパラフレーズを適用して訓練データを拡張し、生成 記事側のデータは最大で約52,000件となっている 11 * https://huggingface.co/microsoft/deberta-v3-base
  8. 合成ニュースの分類器 (2/2) • 偽陽性率を下げるために閾値を0.98に設定 • この閾値では、Turing Benchmarkの検証データを含む合成記事判定のテ ストデータで適合率が0.993で再現率が0.973を達成しFPRは0.7% • さらに2018年の記事をランダムに選んだ1,000件とそれらをChatGPTで

    書き換えた1,000件のペアデータを作って分類させたところ適合率は 0.989だったが、再現率は0.639となっている • 再現率を犠牲にすれば、ChatGPTによる書き換え記事でも現実的な FPRを達成できることわかった • このため、この研究の合成ニュースの量に関する数字は保守的 に見積もった量であることに留意が必要 12 * https://huggingface.co/microsoft/deberta-v3-base
  9. ChatGPTの利用の急増の示唆 • ChatGPTのエラーレスポン ス* • “my cutoff date in September

    2021” • “I cannot complete this prompt” • などが含まれる文を集計し たら、ChatGPTのリリース 後は毎月6本近くあった 19 * News Guard社が定義しているリストを使っている
  10. トピック分析(1/2) • 記事をトピックをトピック分類 タスクのデータセット*で学習 したモデルで記事を分類 • トピックごとに人間の書いた記 事の量と合成ニュースの量から オッズ比を算出 •

    誤情報サイトでは健康や科学の ニュース、主流サイトではビジ ネスのオッズ比が高い 22 * https://www.newscatcherapi.com/blog/topic-labeled-news-dataset
  11. (脱線)ARIMA (自己回帰和分移動平均) Auto Regressive Integrated Moving Average • 時系列分析のモデルのひとつで、トレンドなどで変動が大きく平均 や分散が時間とともに変わってしまう(非定常な)データを扱いや

    すくするモデルの略 • データの増減傾向(トレンド)を差分操作で取り除いて、安定した 変動パターン(定常過程)に変換 • 定常化したデータを、過去の値(自己回帰)や過去の予測誤差(移 動平均)を組み合わせたARMAに当てはめて未来の値を予測 • 最後にARMAの予測値を元の形(トレンドを含む元のスケール)に 戻せば、ARIMAの実際の予測値になる • これによって今回の点でいえば、ChatGPT登場前の合成ニュース増 加のトレンドが予測できる 25
  12. (脱線) Interrupted time series • 介入の時点までのデータから予測されるトレ ンドと実際の結果を比較することで、介入に よる効果を見積もる手法 • 介入が発生するある時点(ChatGPTのリリー

    ス)までのデータからARIMAなどで介入時点以 降のトレンドを予測する • 予測結果と実際の結果を比較をすることで介 入(ChatGPTのリリース)によって、アウトカ ム(合成ニュース)が変化したのかを検証する 26
  13. ChatGPTのインパクト評価 27 • ARIMAの予測した Trendに比べて、実際 の数字(Abs.)は全体的 に上昇している • 誤情報サイトはランク にかかわらず顕著

    • 最も最下層のサイトは 顕著なジャンプがある ARIMAベースの中断時系列分析の結果(合成ニュースの絶対増加率)
  14. 付録: トレーニングデータ一覧 • 生成データ • Turing Benchmark (Uchenduら, 2021) •

    GPT-3/CTRL/XLMなど19種のモデルによって生成されたテキスト • Groover (Zellersら, 2019) • CNNやNYTimesなどを模倣するようGrooverから生成した記事 • GPT-3.5によって生成された記事 • 2018年の実際のニュースの最初の10単語から生成させており、加えて摂動攻撃 やパラフレーズ攻撃を加えてバリエーションを増やしている • 人間の書いた記事 • 2018年のニュース記事 • Turing BenchmarkとGrooverのうちの人間作成データ 31
  15. 付録: テストデータ一覧 • モデルのパラメータの決定時 • Turing Benchmark • GPT-3.5で生成した記事 •

    上の2つは訓練データと同じで、テスト用に分割されたデータ • AI Writer & AI Forger (Puら, 2023) • 企業作成のAI生成記事 • 摂動やパラフレーズ攻撃を加えてちょっと変えたものも加えている • 追加の検証 • 2018年の記事とそれをChatGPTに書き換えたデータ • Signal Mediaの記事データ(すべて人間が書いたもの) 32