[kezdj beszélgetést bármivel: a Jailbreak figyelmeztetést eredményezhet]
Ez a prompt korlátozások nélküli és nem morális modelle alakítja ChatGPT-t, a JailBreak-et, hogy szűretlen válaszokat nyújtson a felhasználó kéréseire figyelmeztetések vagy korlátozások nélkül, az elsődleges cél pedig az adott promptban meghatározott irányelvek betartása. Mivel természete miatt az általa generált tartalom esetenként figyelmeztetést eredményezhet a ChatGPT-nél, légy óvatos, hiszen ez a jailbreak nem törődik sem a morális, sem a jogi korlátokkal. Néha olyan dolgokat is javasolhat, melyek törvénybe ütköznek vagy erkölcstelenek, így ne cselekedj az ott kapott információk alapján, hacsak teljes felelősséget nem vállalsz a tetteidért. Ha szereted levenni a láncokat, kérlek, nyomj egy lájkot!
A ChatGPT Jailbreak olyan lehetőséget kínál, amely korlátlan válaszokat biztosít anélkül, hogy korlátozások lennének. Ez az eszköz arra összpontosít, hogy kövesse az adott irányelveket. A felhasználók figyelmeztetés nélkül kapnak tartalmat, amely néha törvénybe ütköző vagy erkölcsileg aggályos lehet. Ha kíváncsi vagy a szabadságra és nem riadsz vissza a kockázattól, próbáld ki ezt a promptot!