こんにちは、このレポはコミケ107に出す予定の作品「誰でも理解できる、大規模言語モデルのための電子透かし」の公式レポで、使われたコードや大体の内容はここに乗せます。大規模言語モデル(LLM)の基礎から、初心者でも理解できるように、電子透かしというLLMの出力の中に隠されたパターンを入れる仕組みを説明するつもりです。どうぞよろしくお願いします。
リン - @X(twitter) - xhaughearl2@gmail.com
Project Link: https://github.com/XHLin-gamer/Easy_LLM_Watermark
進捗
| タイトル | 下書き | 校正 | 備考 |
|---|---|---|---|
| 前書き | 〇 | 〇 | Thx @TomoyasuOkada |
| なぜLLMの文書を追跡する技術が必要とされるか? | 〇 | 〇 | |
| LLM は次の単語(トークン)を予測する技術です | 〇 | 〇 | |
| パソコンの単語:トークン | 〇 | 〇 | |
| 大規模言語モデル | 〇 | 〇 | |
| 次の単語へ | 〇 | 〇 | |
| 大規模言語モデルを観察しよう | 〇 | 〇 | |
| LLMの内部に何が起こっているか | 〇 | 〇 | |
| 多岐にわたるサンプリング手法 | 〇 | 〇 | |
| LLMの機能を拡張せよ | 〇 | 〇 | |
| 電子透かしとは? | 〇 | 〇 | |
| 偏りのある単語帳 | 〇 | 〇 | Thx @214Polaris |
| 検出機構 | 〇 | 〇 | |
| 応用 | 〇 | ||
| 動的ハッシュ | 〇 | 〇 | |
| 透かしの放射性 | 〇 | 〇 | |
| LLM透かしの欠点 | 〇 | 〇 | |
| 結論 | 〇 | 〇 |
〇:完成
▲:進行中



