一部のジャーナリストやライターはAIチャットボットの品質を上げるために自分自身を不要にする仕事に従事している


生成AIが急速に発展するとともに、「人間の仕事がAIに奪われてしまうのではないか」という懸念も拡大しています。一方で、一部のジャーナリストや小説家、学者などは自身の仕事が奪われる可能性とは裏腹にチャットボットの品質向上のためにテクノロジー企業に従事しています。
‘If journalism is going up in smoke, I might as well get high off the fumes’: confessions of a chatbot helper | Artificial intelligence (AI) | The Guardian
https://www.theguardian.com/technology/article/2024/sep/07/if-journalism-is-going-up-in-smoke-i-might-as-well-get-high-off-the-fumes-confessions-of-a-chatbot-helper


ChatGPTをはじめとする大規模言語モデルを使用したチャットボットは、大量のテキストの要約からメールの作成、エッセイや小説の執筆など、さまざまなクリエイティブな作業をこなすことが可能です。しかし、その裏には大規模言語モデルのトレーニングが必要で、AI開発企業はモデルのトレーニングのために小説家や学者、フリーランスのジャーナリストなどと契約を結んでいるとのこと。
実際にあるAI開発企業で働くジャック・アポロ・ジョージ氏によると、トレーニングに携わる契約者はチャットボットに投げかけられるような架空の質問に対する回答を作成する作業を主に行っているそうです。AIは「良い」文章を生成しますが、そのためには「良い」がどのようなものであるかを示す必要があります。そのため、架空の質問に対する人間の回答をモデルに読み込ませているとのこと。これにより、AIが事実ではないことを事実であるかのように説明する「幻覚(ハルシネーション)」と呼ばれる現象の発生頻度が低下します。
ジョージ氏は「AIの世界は私たちの言葉で成り立っています。人間の優れた言語データがなければ、大規模言語モデルは改善することができません」と語りました。


さらに、Google DeepMindの研究者であるイリア・シュマイロフ氏は「人間が書いた文章ではなく大規模言語モデルが出力した文章を基に大規模言語モデルのトレーニングを行うと、『マイノリティデータ』と呼ばれる珍しい単語や珍しい事実についての知識を失う『モデルの崩壊』が引き起こされ、うまくいきません」と述べており、AIのトレーニングにおける人間の重要性を説いています。
実際にOpenAIはウォール・ストリート・ジャーナルなどの親会社であるNews Corpなどと契約を結んでおり、さらなるトレーニングのために人間が書いた高品質な文章を収集できる環境を整えています。
OpenAIがウォール・ストリート・ジャーナルの親会社「News Corp」との複数年契約を発表 - GIGAZINE

一部のジャーナリストやライターはAIチャットボットの品質を上げるために自分自身を不要にする仕事に従事している - 画像


ジョージ氏はAI開発企業において「シニアデータ品質スペシャリスト」として雇用されていますが、自身の仕事には複雑な思いを抱いているとのこと。ジョージ氏は「高性能な大規模言語モデルは我々ライターの仕事を自動化し、性能が向上すればするほど私たちの仕事が奪われてしまいます」と吐露しています。
一方でソフトウェアエンジニアのフランソワ・ショレ氏は「大規模言語モデルをトレーニングするための注釈付きデータを作成するだけでおよそ2万人の人間が雇用されています。しかし、こうした人間による手作業がなければ大規模言語モデルから出力される文章は本当にひどいものとなっていたでしょう」と語っています。当初、AIトレーニングに携わる契約者は発展途上国に住む人々から低賃金で雇われていましたが、モデルのトレーニング精度の向上のため専門的で高賃金の仕事へとシフトしており、時給30ポンド(約5600円)で雇われることもあるそうです。
しかしショレ氏は「大手テクノロジー企業は人間による手作業でのAIトレーニングプロセスに関してまったく明確にしておらず、近い将来、このプロセスへの投資が修正されるでしょう」と推測しています。ジョージ氏は「訓練する新しい単語が不足するほどAIが発展しない限り、私たち作家やジャーナリストなどが仕事を失うことはないでしょう」との展望を示しています。

ジャンルで探す