翻訳: ヒマラヤ東京櫻花団 / 老黑

最近、学術誌Natureは、ミシガン大学が新しい言語を生成する人工知能技術の社会的影響に関するレポートを発表した。レポートでは、研究者は、アルゴリズムによって生成された言語が混乱と障害を引き起こし、科学への不信を煽る可能性があることを懸念している。

新たな言語生成AI技術は、大規模な言語モデルに基づく大量のテキストから流暢な言語を生成する方法で人間のように要約、記述、翻訳、回答を模擬し、さらにはコードを生成することが狙いである。この種のモデルを構築する大手テクノロジー企業は、チャットボットや検索エンジンにこのテクノロジーを使用している。

言語を生成する人工知能が科学分野に関与している場合、情報をすばやく見つけるのに役立つ。ただし、機械学習アルゴリズムには、古い情報、違いの無視、不確実性などの欠陥があるかもしれない。さらに、言語生成モデルは公開されておらず、入力学習テキストはデータセットの一部に基づいて作成される場合がある。同時に、これらのAIツールとのやり取りは非常に個人的なものであり、各ユーザーは自分で生成した情報を取得する。ユーザーが言語を生成する人工知能の限界に気づかず、テクノロジーから得られた情報に依存している場合、複雑な現実と矛盾するまたは単純化された科学的議論に終わる可能性がある。

特に、レポートは、科学における言語生成AIの適用には透明性が不可欠であることを指摘。開発者は、機械学習プロセスで使用されるテキストとアルゴリズムのロジックを明確に示す必要がある。大規模な科学出版社は、これらのAIツールの開発に関与する必要がある。科学者は、出版社や資金提供者がこのテクノロジーを通じて味方の審査員を見つけたり、原稿を評価したり、または資金に関与するかどうかに注意する必要がある。

原文リンク 

校正:ヒマラヤ東京桜団 / 北京軍区
編輯:ヒマラヤ東京桜団 / 旭鵬(文鵬)
アップロード:ヒマラヤ東京桜団 /老黑