Baru saja menonton video WIRED baru-baru ini tentang kinerja asisten virtual dalam menceritakan lelucon. Mereka disusun oleh manusia, tetapi saya ingin tahu apakah AI sudah cukup baik untuk menulis beberapa.
Baru saja menonton video WIRED baru-baru ini tentang kinerja asisten virtual dalam menceritakan lelucon. Mereka disusun oleh manusia, tetapi saya ingin tahu apakah AI sudah cukup baik untuk menulis beberapa.
Jawaban:
Saya tidak berpikir AI sampai pada titik itu. Berikut adalah beberapa makalah menarik tentang masalah ini:
Sebuah makalah baru-baru ini ditulis yang berusaha menghasilkan lelucon menggunakan pembelajaran tanpa pengawasan . Lelucon itu adalah rumusan: semuanya berbentuk "Saya suka X saya seperti saya suka Y: Z" di mana X dan Y adalah kata benda, dan Z adalah kata sifat yang dapat menggambarkan X dan Y. Berikut adalah beberapa lelucon yang dihasilkan dalam makalah ini:
I like my relationships like I like my source, open
I like my coffee like I like my war, cold
I like my boys like I like my sectors, bad
Betapa lucunya lelucon ini karena masalah selera pribadi.
Makalah lain dari Dario Bertero dan Pascale Fung memanfaatkan LSTM untuk memprediksi humor dari dataset dari teori Big Bang. Ini bukan menghasilkan lelucon, tetapi mencari tahu di mana lelucon itu dikatakan dalam dataset ini (jadi secara teoritis, dataset berlabel yang dihasilkan diharapkan dapat digunakan untuk melatih model untuk membuat lelucon).
Namun makalah lain adalah bahwa oleh He Ren, Quan Yang . Berbeda dengan makalah pertama yang disebutkan di atas yang tidak diawasi, ini adalah model pembelajaran yang diawasi. Model jaringan saraf mereka, menghasilkan lelucon seperti:
Apple is teaming up with Playboy Magazine in the self driving office.
One of the top economy in China , Lady Gaga says today that Obama is legal.
Google Plus has introduced the remains that lowers the age of coffee.
According to a new study , the governor of film welcome the leading actor of Los Angeles area , Donald Trump .
Dua sen saya :
Pada tulisan ini, tampaknya Multi-layer Recurrent Neural Networks (LSTM, GRU, RNN) untuk model bahasa tingkat karakter sejauh ini merupakan cara yang paling menjanjikan untuk melakukannya. Mungkin jika Anda menemukan beberapa data yang sangat keren, Anda dapat membuat beberapa lelucon lucu, mirip dengan bagaimana Janelle Shane dapat menghasilkan apa yang saya temukan sebagai garis pikap yang benar-benar lucu seperti:
Are you a 4loce? Because you’re so hot!
I want to get my heart with you.
You are so beautiful that you know what I mean.
I have a cenver? Because I just stowe must your worms.
Hey baby, I’m swirked to gave ever to say it for drive.
If I were to ask you out?
You must be a tringle? Cause you’re the only thing here.
I’m not on your wears, but I want to see your start.
You are so beautiful that you make me feel better to see you.
Hey baby, you’re to be a key? Because I can bear your toot?
I don’t know you.
I have to give you a book, because you’re the only thing in your eyes.
Are you a candle? Because you’re so hot of the looks with you.
I want to see you to my heart.
If I had a rose for every time I thought of you, I have a price tighting.
I have a really falling for you.
Your beauty have a fine to me.
Are you a camera? Because I want to see the most beautiful than you.
I had a come to got your heart.
You’re so beautiful that you say a bat on me and baby.
You look like a thing and I love you.
Hello.
Sampai sekarang kita tidak memiliki teori kognitif humor yang memuaskan (atau setidaknya, teori yang dapat mengevaluasi keriuhan lelucon), jadi survei cepat literatur tampaknya menunjukkan bahwa kita tidak memiliki banyak petunjuk tentang cara membangun model.
Karena itu, dan fakta bahwa metode yang ada tampaknya tidak andal menghasilkan bentuk bebas lelucon yang bagus, tampaknya ada sedikit alasan untuk percaya bahwa metode ML dapat menghasilkan lelucon yang baik.
Tapi tentu saja ini semua normatif.