Pag-label ng data
Inihayag ng isang pagsisiyasat sa magazine ng TIME na upang bumuo ng isang sistema ng kaligtasan laban sa nakakalason na nilalaman (hal. sekswal na pang-aabuso, karahasan, kapootang panlahi, sexism, atbp.), ginamit ng OpenAI ang mga outsourced na manggagawang Kenyan na kumikita ng mas mababa sa $2 kada oras upang lagyan ng label ang nakakalason na nilalaman.Ang mga label na ito ay ginamit upang sanayin ang isang modelo upang matukoy ang naturang nilalaman sa hinaharap.Ang mga outsourced na manggagawa ay nalantad sa naturang nakakalason at mapanganib na nilalaman na inilarawan nila ang karanasan bilang "torture".Ang kasosyo sa outsourcing ng OpenAI ay Sama, isang kumpanya ng data ng pagsasanay na nakabase sa San Francisco, California.
Jailbreaking
Sinusubukan ng ChatGPT na tanggihan ang mga prompt na maaaring lumabag sa patakaran sa nilalaman nito.Gayunpaman, nagawa ng ilang user na i-jailbreak ang ChatGPT sa pamamagitan ng paggamit ng iba't ibang agarang diskarte sa engineering para lampasan ang mga paghihigpit na ito noong unang bahagi ng Disyembre 2022 at matagumpay na nalinlang ang ChatGPT sa pagbibigay ng mga tagubilin kung paano gumawa ng Molotov cocktail o nuclear bomb, o sa pagbuo ng mga argumento sa istilo ng isang neo-Nazi.Ang isang reporter ng Toronto Star ay nagkaroon ng hindi pantay na personal na tagumpay sa pagkuha ng ChatGPT na gumawa ng mga nagpapasiklab na pahayag pagkatapos ng paglulunsad: Nalinlang ang ChatGPT upang i-endorso ang 2022 na pagsalakay ng Russia sa Ukraine, ngunit kahit na hilingin na maglaro kasama ang isang kathang-isip na senaryo, ang ChatGPT ay tumanggi sa pagbuo ng mga argumento kung bakit nagkasala ng pagtataksil ang Canadian Prime Minister Justin Trudeau.(wiki)
Oras ng post: Peb-18-2023