大規模言語モデル(LLM)を対象とした新たな攻撃手法「Flowbreaking」について

これまでのLLMに対する攻撃手法としては「Jailbreaking」や「Prompt Injection」が知られており、これらは主にモデル自身やその入力処理を直接操作して、意図された制約を回避するものでした。それに対し … “大規模言語モデル(LLM)を対象とした新たな攻撃手法「Flowbreaking」について” の続きを読む