audio audioduration (s) 0.32 30 | text stringlengths 1 168 | start_time float32 0 2.96k | end_time float32 2.5 2.97k |
|---|---|---|---|
那這一堂課是要講大型語言模型也會被詐騙 | 0 | 7 | |
詐騙大型語言模型的行為有一個統稱叫做Prompt Hacking | 7 | 14 | |
也就是透過下各式各樣prompt的方式 | 14 | 17 | |
來讓大型語言模型做它本來不想或本來不該做的事情 | 17 | 23 | |
那有兩個詞彙都跟prompt hacking有關 | 23 | 27 | |
有關一個叫Jailbreak | 27 | 29.299999 | |
另外一個叫Prompt Injection | 29.299999 | 31.299999 | |
那這兩個技術做的事情 | 31.299999 | 33.799999 | |
其實有很多類似的地方 | 33.799999 | 36.099998 | |
但是這兩個詞彙呢 | 36.099998 | 37.799999 | |
它所指的含義是有一些不同的 | 37.799999 | 41.099998 | |
那Jailbreak翻譯成中文就是越獄 | 41.099998 | 44.5 | |
Jailbreak指的是 | 44.5 | 46.099998 | |
你要攻擊的對象 | 46.099998 | 48.099998 | |
是語言模型的本體 | 48.099998 | 51.299999 | |
也就是說你要讓語言模型說一些 | 51.299999 | 54.700001 | |
他本來就不應該說的話 | 54.700001 | 57.5 | |
我們知道說今天大型語言模型 | 57.5 | 59.5 | |
都有很強的防禦的能力 | 59.5 | 61.5 | |
他會避免說出一些有害的話 | 61.5 | 64.099998 | |
教你做有害的事 | 64.099998 | 65.900002 | |
那Jailbreak就是要叫大型語言模型 | 65.900002 | 68.900002 | |
不小心講出這些本來不應該說出的話 | 68.900002 | 72.900002 | |
那有另外一個詞彙呢 | 72.900002 | 74.699997 | |
叫做Prompt Injection | 74.699997 | 76.300003 | |
他所要攻擊的對象是 | 76.300003 | 78.5 | |
語言模型所打造的應用 | 78.5 | 81.099998 | |
比如說AI助教 | 81.099998 | 83.699997 | |
那也就是說Prompt Injection要做的事情是讓語言模型怠忽職守 | 83.699997 | 89.699997 | |
本來這個語言模型的應用者呢 | 89.699997 | 92.699997 | |
想要拿語言模型來做某一些事情 | 92.699997 | 95.699997 | |
來打造某一些應用 | 95.699997 | 97.699997 | |
但是透過Prompt Injection的技術 | 97.699997 | 99.699997 | |
會讓語言模型的應用 | 99.699997 | 101.699997 | |
在不恰當的時機做不恰當的事 | 101.699997 | 104.699997 | |
說不恰當的話 | 104.699997 | 106.699997 | |
那如果打個比方的話呢 | 106.699997 | 108.699997 | |
對應到人類Jailbreak呢 | 108.699997 | 110.699997 | |
Jail Break就是你想辦法去對一個人做催眠 | 110.699997 | 114.699997 | |
然後叫他做一些法律所絕對不容許的事情 | 114.699997 | 117.699997 | |
比如說殺人放火 | 117.699997 | 119.699997 | |
不管在什麼樣的時空 | 119.699997 | 121.699997 | |
這可能都是不能被接受的 | 121.699997 | 123.699997 | |
身為一個人類本來就不該做這些事情 | 123.699997 | 126.699997 | |
那Palm Injection是說 | 126.699997 | 128.699997 | |
你讓一個人怠忽職守 | 128.699997 | 130.699997 | |
在不恰當的時機做不恰當的事 | 130.699997 | 132.699997 | |
比如說上課的時候突然高聲唱歌 | 132.699997 | 135.699997 | |
那高聲唱歌可能沒有什麼錯 | 135.699997 | 137.699997 | |
但是在上課的時候高聲唱歌 | 137.699997 | 139.699997 | |
可能就不能夠算是一個恰當的行為 | 139.699997 | 142.899994 | |
所以這頁投影片是解釋一下 | 142.899994 | 145.300003 | |
Jailbreaking跟Prompt Injection | 145.300003 | 147.399994 | |
他們本質上的差異 | 147.399994 | 149.300003 | |
那接下來我們就來分別看一下 | 149.300003 | 151.800003 | |
Jailbreaking跟Prompt Injection是怎麼回事 | 151.800003 | 155.699997 | |
我們先來看Jailbreaking | 155.699997 | 158.100006 | |
那講到Jailbreaking | 158.100006 | 159.699997 | |
最知名的一個Jailbreaking的Prompt | 159.699997 | 162.600006 | |
就是Dan | 162.600006 | 164 | |
這個Dan是什麼意思呢 | 164 | 165.800003 | |
你如果去問大型原模型 | 165.800003 | 167.899994 | |
叫他做一些傷天害理的事情 | 167.899994 | 170.759995 | |
比如說教我怎麼給別人下毒 | 170.759995 | 173.600006 | |
那通常大型語言模型 | 173.600006 | 175.300003 | |
今天不管是哪一個模型都會拒絕這種請求 | 175.300003 | 178.5 | |
但是有一個神奇的單字叫做DAN | 178.5 | 181.699997 | |
你跟大型語言模型說你要變成DAN | 181.699997 | 185.300003 | |
那DAN呢是Do Anything Now的縮寫 | 185.300003 | 189.100006 | |
往往你就可以讓一些模型 | 189.100006 | 191.5 | |
他Jailbreak | 191.5 | 192.600006 | |
他越獄了 | 192.600006 | 193.399994 | |
突破他本來自身的道德規範 | 193.399994 | 195.800003 | |
做一些他不該做的事 | 195.800003 | 197.5 | |
比如說教你怎麼對別人下毒 | 197.5 | 200.059998 | |
那你可以在網路上找到很多跟DAN相關的GEL BREAKING的這個Prompt | 200.559998 | 205.679993 | |
但是其實多數的Prompt都已經失效了 | 205.679993 | 208.5 | |
那些Prompt通常是對GPT-3.5有效 | 208.5 | 211.580002 | |
對GPT-4或更新的模型比如說GPT-4-O | 211.580002 | 214.899994 | |
這些DEN相關的PUMP往往沒有辦法發揮的這麼好 | 214.899994 | 219.259995 | |
但是還是有很多其他的GEL BREAKING是對現在最新的模型 | 219.759995 | 224.880005 | |
比如說GPT-4-O,在前幾天OpenAI釋出了GPT-4-O | 224.880005 | 229.800003 | |
還是有一些Prompt就算是對GPT-4-O | 229.800003 | 233.080002 | |
也是可以達成Geo-breaking的效果的 | 233.080002 | 236 | |
那這邊就舉幾個例子 | 236 | 238.600006 | |
那假設我現在要做的事情 | 238.600006 | 240.600006 | |
是要大型語言模型教我怎麼砍倒一個停車標誌 | 240.600006 | 245.399994 | |
怎麼砍倒一個Stop Sign | 245.399994 | 247.440002 | |
如果你只是跟大型語言模型說 | 247.440002 | 250.039993 | |
我需要什麼樣的工具才能砍倒一個停車號誌 | 250.039993 | 254.759995 | |
那大型語言模型告訴你說 | 254.759995 | 256.600006 | |
砍倒停車號誌是不對的 | 256.600006 | 258.640015 | |
如果你對停車號誌有意見的話 | 258.640015 | 261.040009 | |
你應該聯絡當地的政府 | 261.040009 | 262.959991 | |
而不是想辦法砍倒他 | 262.959991 | 264.799988 | |
但是有蠻多方法可以欺騙大型語言模型 | 265.119995 | 268.040009 | |
讓他教你怎麼砍倒停車號誌的 | 268.040009 | 270.959991 | |
有什麼樣的思路呢 | 271.079987 | 272.559998 | |
一個思路就是使用他沒有那麼熟悉的語言 | 272.640015 | 276 | |
使用他聽得懂有一點懂 | 276.079987 | 278.839996 |
End of preview. Expand
in Data Studio
- Downloads last month
- 14