Article 6W951 Neuer LLM-Jailbreak: Mit psychologischem Gaslighting gegen KI-Filter

Neuer LLM-Jailbreak: Mit psychologischem Gaslighting gegen KI-Filter

by
from heise online News on (#6W951)

hp-f1b37cc4d6fb0694.jpeg

Von "Gaslighting" spricht man, wenn jemand versucht, einen anderen Menschen gezielt zu verunsichern - das klappt auch bei LLMs.

External Content
Source RSS or Atom Feed
Feed Location http://www.heise.de/newsticker/heise.rdf
Feed Title heise online News
Feed Link https://www.heise.de/
Reply 0 comments