Apakah Big O benar-benar penting?


17

Dalam dunia akademis kasus terburuk, Big O diajarkan di atas segalanya. Dibandingkan dengan kompleksitas ruang, analisis kasus normal, kesederhanaan atas kompleksitas, dll.

Khususnya untuk pemrograman game dan industri, apa yang paling penting dan mengapa?

Referensi akan sangat membantu.


Big-O = Optimasi. Butuh sedikit waktu untuk mencari tahu big-0 itu apa.
AttackingHobo

12
Big-O bukan "optimasi". Big-O adalah bentuk analisis yang memberi tahu Anda bagaimana algoritma yang berbeda akan berperilaku, dalam hal efisiensi, karena jumlah elemen yang ditindaklanjuti meningkat. Lihat en.wikipedia.org/wiki/Big_O_notation untuk detail lebih lanjut.
ZorbaTHut

2
Saya dapat meyakinkan Anda bahwa orang-orang yang datang dengan octrees dan BSP / PVS tahu semua tentang big-O. Pada akhirnya, satu-satunya hal yang penting adalah kinerja aplikasi. Tetapi untuk sampai di sana Anda harus mempertimbangkan segala hal, termasuk kompleksitas algoritma asimtotik yang menangani banyak data.
drxzcl

1
Ingat aturan kapan harus mengoptimalkan: 1) Jangan lakukan itu. 2) (hanya ahli) Jangan lakukan itu.
zaratustra

Yah, pertama-tama, Big O dapat digunakan untuk ruang atau kompleksitas komputasi, jadi "lebih dari segalanya" tidak sepenuhnya benar. Kedua, Big O biasanya jauh lebih mudah untuk menghitung untuk sesuatu daripada analisis kasus normal, dan akan digunakan sebagai pemeriksaan mental cepat untuk apakah Anda melakukan sesuatu yang salah. Jika menggambar sprite membutuhkan waktu O (2 ^ n), Anda mungkin harus memilih algoritma yang berbeda. Jika Anda ingin pendekatan yang lebih praktis untuk desain perangkat lunak, lihat praktik SE daripada CS. CS bersifat teoritis, sedangkan SE lebih didasarkan pada industri.
Deleter

Jawaban:


25

Seperti halnya setiap pertanyaan lain tentang "apa Satu Jalur Sejati", ini semua adalah alat di kotak alat Anda dan ada kasus di mana O besar mengalahkan segalanya, dan tempat-tempat di mana itu tidak masalah (tm).

Anda akan "tidak pernah" menulis pemecah fisika tanpa khawatir tentang big-O. Anda tidak akan menerapkan algoritme pengurutan (untuk apa pun kecuali kumpulan data terkecil) tanpa khawatir. Jika Anda menulis game berjaringan, Anda akan khawatir dengan kinerja dan skala lalu lintas jaringan per pengguna.

Anda mungkin tidak begitu khawatir tentang big-O ketika, yah, saya benar-benar tidak bisa memikirkan waktu tetapi saya yakin ada beberapa. :) Syukurlah, sebagian besar hal yang kita lakukan dalam game berskala linear; Anda ingin membaca file dari disk? Ini akan memakan waktu yang sebanding secara linier dengan ukuran file (mengabaikan faktor pencarian konstan dan kemungkinan konsekuensi ukuran sektor).

Namun, bagaimana jika Anda ingin menemukan entitas tertentu dalam daftar entitas? Itu pencarian linear setiap kali Anda melakukannya. Jika Anda perlu menemukan pemain satu kali untuk setiap entitas di dunia, pendekatan ini akan membunuh Anda untuk semua hal kecuali permainan yang paling sepele, dan bahkan mungkin perlu "mengoptimalkan" pencarian ini sebagai waktu yang konstan (mis. Simpan dari indeks atau pointer ke pemain di suatu tempat), memberi Anda lebih banyak waktu untuk melakukan hal-hal lain yang sebenarnya terlihat oleh pemain.

Saya kira itu merangkumnya, meskipun; setiap kali prosesor melakukan sesuatu yang tidak secara langsung dapat diwakili oleh pemain, itu membuang-buang waktu. Memaksimalkan jumlah waktu prosesor menghitung data yang akan ditampilkan kepada pemain adalah memaksimalkan WOW! Anda memberi pemain.


8
Ini. Penting untuk memahami karakteristik kinerja kode Anda. Anda tidak pernah tahu kapan seorang desainer akan menggunakan sesuatu yang telah Anda tambahkan dengan cara yang tidak Anda harapkan, dan tiba-tiba sedikit kode yang Anda pikir hanya perlu menangani 5 item sekarang menangani 5000 item dan di-ping 100 kali dalam bingkai. Apakah Anda mengoptimalkannya? Bisakah kamu? Berapa banyak yang masuk akal? Profil hanya akan memberi tahu Anda seberapa lambat itu, bukan mengapa. Mengetahui kompleksitas akan memberi tahu Anda apakah Anda perlu mengoptimalkan kode, atau menggantinya dengan sesuatu yang berbeda.
JasonD

3
Sepakat. Universitas mengajari Anda 'Big-O' karena menangani banyak masalah yang akan Anda hadapi. Ketika Anda ditanya 'oh, kita bisa membuat ini tak terbatas daripada hanya 5? penguji membenci batasan 'saat itulah pelatihan terbayar. Anda seharusnya tidak hanya mengatakan 'tidak, saya tidak bisa'. Sangat penting untuk menyelesaikan masalah dari itu dan mengatakan 'ya saya bisa'. Game Anda membutuhkan galaksi yang bisa dicari? 'Tidak masalah'. Jutaan unit itu perlu dipesan? 'Tidak masalah'. 'Tidak cukup belajar' hanya tidak memotongnya.
Rushyo

"Anda mungkin tidak begitu khawatir tentang big-O ketika ..." memproses kunci input. Saya mewarisi sistem input yang berusaha keras untuk menyelesaikan pemetaan tindakan-> kunci dalam waktu yang konstan, menggunakan tabel pencarian. Mengalihkannya ke pencarian linear dari array (kunci, aksi) memasangkan memori yang disimpan dan tidak memiliki dampak kinerja, karena pengguna jarang menekan lebih dari beberapa tombol dalam satu frame, dan array biasanya hanya sepanjang 20-30 item. Itu juga memungkinkan kita menambahkan (kunci, kunci, tindakan) untuk akor.

Joe, tentu saja, meskipun itu masalah yang berbeda. Apakah Anda ingin O (1) di mana faktor konstan tinggi, atau O (n) dengan 'n' kecil dan faktor konstan rendah? Mengetahui big-O dalam hal ini bukan masalah tetapi dapat membantu Anda mencari tahu apakah solusinya masuk akal untuk keadaan di mana ia akan digunakan.
dash-tom-bang

13

Aturan praktis saya adalah bahwa kecuali Anda O (menakutkan), masalah Anda yang lain lebih relevan.

Aturan saya yang lain adalah bahwa data adalah raja. Kecuali jika Anda membuat profil kode Anda dengan set data realistis, Anda hanya menebak-nebak.

Sunting: Untuk sedikit lebih detail, O besar Anda tidak begitu penting karena (setidaknya dalam pengalaman saya) sebagian besar set data Anda relatif kecil. Anda mungkin tidak peduli dengan batas kinerja Anda saat bekerja dengan struktur data dengan elemen kurang dari beberapa ratus. Dan jika daftar Anda memiliki elemen 100k + maka Anda benar-benar perlu mempertimbangkan semua aspek algoritma Anda. Itu, dan dari pengalaman saya, memori lebih merupakan faktor pembatas daripada kecepatan CPU. Algoritme memonopoli memori yang lebih cepat mungkin tidak sebagus yang lebih ramping tetapi lebih lambat tergantung pada kasus penggunaan Anda.


8

Big O penting sebagian besar waktu, tetapi kadang-kadang algoritma yang tampaknya "lebih buruk" dalam teori ternyata jauh lebih cepat dalam praktik.

Lihatlah contoh bagus dari Tony Albrecht: http://seven-degrees-of-freedom.blogspot.com/2010/07/question-of-sorts.html

Anda menemukan ini di mana-mana dalam pengembangan game di mana jumlah item dalam operasi itu begitu besar sehingga algoritma yang sangat berbeda lebih cepat, atau sangat kecil sehingga algoritma dumber cukup (atau cocok dalam cache sehingga baik menimpa efisiensi dari algoritma yang lebih baik ).

Masalah dengan Big O adalah bahwa itu adalah penunjukan generik dari kompleksitas tugas dan tidak memperhitungkan kompleksitas perangkat keras target modern, juga tidak menawarkan wawasan tentang overhead waktu pengaturan.

Dalam banyak kasus, solusi optimal terbaik adalah dua langkah. Dalam praktiknya, pengembang game cenderung cenderung ke algoritma O rendah tetapi seimbang terhadap biaya dalam pengembangan waktu, atau debugging. Setelah Anda memiliki solusi yang masuk akal, Anda selalu harus melihat bagaimana perangkat keras menangani tugas, dan bagaimana membiarkan perangkat keras menyelesaikan lebih banyak dalam waktu yang lebih singkat.


"Masalah dengan Big O" adalah orang-orang tampaknya lupa bahwa itu adalah kompleksitas algoritmik dari kinerja relatif terhadap ukuran dataset besar. Dalam game, kita tidak (biasanya) mencapai nilai-nilai N itu sehingga kita perlu khawatir dengan kepingan puzzle lainnya. Saya menduga bahwa semacam gelembung akan selalu mengungguli quicksort ketika Anda memiliki daftar dua elemen.
dash-tom-bang

7

Ketika aku coding di-mesin, saya sering hanya peduli dengan tetap n: Aku sudah punya partisi spacial membatasi jumlah objek yang menerima update(), physics()dan render()sekitar orang-orang di layar dan sekitarnya. Ukuran batch maksimum biasanya didefinisikan dengan cukup baik per-game, meskipun itu selalu sedikit lebih besar dari yang Anda rencanakan.

Dalam hal ini saya tidak terlalu peduli dengan big-O karena saya prihatin dengan faktor pengganda dan orde rendah yang konstan. Untuk fungsi dengan runtime seperti a*n^2 + b*n + c(yang O(n^2)), saya sering lebih peduli dengan mengurangi adan mungkin menghilangkan c. Biaya setup atau teardown cbisa menjadi besar secara proporsional vs kecil n.

Namun, ini bukan untuk mengatakan bahwa big-O (atau lebih khusus big-theta ) adalah indikator bau kode yang hebat. Lihat suatu O(n^4)tempat, atau lebih buruk lagi O(k^n)waktu geometris, dan inilah saatnya untuk memastikan Anda mempertimbangkan opsi lain.

Saya umumnya jauh lebih peduli tentang optimalitas big-O dan melompat-lompat untuk menemukan algoritma dengan big-O rendah ketika saya berurusan dengan alat data make. Sementara jumlah objek dalam level tertentu / area streaming umumnya didefinisikan dengan baik, jumlah total objek / aset seni / file konfigurasi / dll di seluruh permainan mungkin tidak. Ini juga jumlah yang jauh lebih besar. Meskipun menjalankan pembuatan data paralel, kami masih menunggu dalam urutan satu menit (saya tahu, merengek - pembuatan data untuk konsol dapat memakan waktu berjam-jam - kami sebagian besar adalah game genggam kecil) untuk menjalani jam data-clean && jam datasiklus.

Untuk memberikan contoh spesifik: ini benar-benar tidak terkendali dengan algoritme streaming ubin latar belakang yang mengalirkan ubin 8x8 256-warna. Sangat berguna untuk membagikan buffer streaming di antara "lapisan" latar belakang, dan kami mungkin memiliki hingga 6 dari mereka di level tertentu yang berbagi buffer yang sama. Masalahnya adalah bahwa memperkirakan ukuran buffer yang dibutuhkan didasarkan pada posisi yang memungkinkan dari semua 6 lapisan - dan jika mereka adalah bilangan prima lebar / tinggi / kecepatan gulir, Anda dengan cepat mulai melakukan pencarian lengkap - yang mulai mendekatO(6^numTiles)- yang berada dalam kategori "lebih lama dari jagad raya sekitar" dalam banyak kasus. Untungnya kebanyakan case hanya 2-3 layer, tetapi meskipun demikian, kami berada di atas runtime setengah jam. Saat ini, kami mengambil sampel subset yang sangat kecil dari kemungkinan ini, meningkatkan granularity hingga sejumlah waktu yang telah berlalu (atau kami telah menyelesaikan tugas, yang mungkin terjadi untuk konfigurasi double-layer kecil). Kami menaikkan perkiraan ini sedikit berdasarkan statistik sebelumnya tentang seberapa sering kami terbukti salah, dan kemudian menambahkan sedikit bantalan tambahan untuk ukuran yang baik.

Satu contoh lain yang menyenangkan: pada game PC beberapa waktu lalu, insinyur utama bereksperimen untuk sementara waktu dengan melewatkan daftar . Memori overhead pada akhirnya menyebabkan lebih banyak efek cache, yang menambahkan semacam pengganda non-konstan ke seluruh urusan - jadi mereka benar-benar bukan pilihan yang baik sama sekali untuk kecil n. Tetapi untuk daftar yang lebih besar diurutkan di mana pencarian sering dilakukan, mereka memberikan manfaat.

(Saya sering menemukan bahwa algoritma naif lebih tinggi big-O, lebih cepat pada set data yang lebih kecil, dan lebih mudah untuk dipahami; yang lebih menarik / kompleks (misalnya patricia trie) lebih sulit bagi orang untuk memahami dan memelihara, tetapi kinerja yang lebih tinggi pada yang lebih besar set data.)


4

Ini bisa berguna, tetapi juga tidak relevan. Ambil, misalnya, gim terbaru saya, yang merupakan tiruan dari Smash TV. Game top-down, monster-monster berdatangan dari samping, kamu tembak mereka.

Sekarang ada banyak cara pintar untuk menentukan tabrakan. Anda dapat menggunakan KDtrees untuk mempartisi ruang sehingga Anda tidak menguji peluru terhadap monster yang tidak mungkin mereka pukul. Dan, tentu saja, saya bisa saja pintar, dan saya bisa melakukannya.

Tapi aku merasa malas jadi aku hanya membandingkan setiap peluru dengan setiap monster. Bahkan dalam situasi paling sibuk, kode tumbukan menggunakan jauh lebih sedikit dari 10% CPU game pada 60fps. Big-O: Tidak penting.

Demikian pula, saya memiliki permainan gaya-4x di mana Anda membangun kota di pulau-pulau, dan kadang-kadang kota-kota dihancurkan. Saya bisa saja pintar dan berusaha mengurangi pendapatan kota yang hancur dari variabel pendapatan. Tetapi saya tidak melakukannya. Saya baru saja menghapus pendapatan dan menghitung ulang dari awal setiap kali ada perubahan. Sama sekali tidak relevan dalam hal CPU.

Big-O sama pentingnya dalam permainan seperti halnya dalam hal lain: artinya, sama sekali tidak penting, sampai menjadi kritis.

Pergi tulis beberapa kode. Jika terlalu lambat, maka profil itu.


3

Analisis Big-O penting, tetapi itu bukan hal pertama yang dipikirkan dalam pengembangan game. Karena membuat game melibatkan banyak kode rumit, saya selalu merekomendasikan Kesederhanaan Kode sebagai kriteria pertama untuk suatu algoritma. Algoritma dengan pembukuan yang rumit hanya membuang waktu Anda.

Saya pikir sangat penting bahwa gim Anda selalu berjalan pada kecepatan 60 fps selama pengembangan. Ketika Anda mencelupkan di bawah itu, hal pertama yang Anda lakukan adalah menjalankan profiler. Setelah Anda menemukan bottleneck, Anda menyerangnya. Banyak waktu yang Anda butuhkan untuk melakukan hal-hal non-coding seperti memberitahu desainer tingkat untuk menempatkan lebih sedikit barang di suatu daerah (dan memberi mereka alat untuk itu).

Terkadang Anda benar-benar mengidentifikasi beberapa kode yang perlu dipercepat. Saya menemukan ini sebagai rekayasa yang menyenangkan! Saya berharap memiliki lebih banyak kesempatan untuk melakukan ini. Dan tentu saja Anda ingin beralih mengubah satu hal pada satu waktu dan mengukur kinerja. Masalah tipical yang saya temukan adalah:

  1. Pastikan Anda tidak memanggil baru atau malloc setiap frame (ini selalu menjadi masalah # 1)
  2. Kurangi pekerjaan: lebih sedikit gips, lebih sedikit pria, dll.
  3. Masalah tipe algoritma Big-O
  4. Koherensi cache: Masukkan barang-barang ke dalam array daripada memori yang tersebar
  5. Jangan gunakan STL dalam mode debug. (dan Anda selalu ingin mode debug berfungsi)

2

Notasi O besar adalah dengan definisi kompleksitas asimptotik - yaitu, ia menunjukkan bagaimana skala waktu ketika N (atau variabel apa pun yang Anda miliki) menjadi "sangat" besar. Untuk mengulangi komentar Tetrad (yang saya angkat) "data adalah raja". Jika N "sangat besar" dalam situasi spesifik Anda, itu penting, jika N "sangat kecil" itu tidak masalah. Pengalaman dan praktik akan memberi Anda perasaan bagaimana mengukur "sangat besar" dan "sangat kecil".

Jelas, selalu profil terlebih dahulu, dan optimalkan yang terakhir (kecuali jika Anda melakukan studi kelayakan fitur).


1

Pentingnya Big-O dalam perangkat lunak Anda adalah O (N 2 ). Ketika N tumbuh, pentingnya memiliki algoritma yang tepat tumbuh lebih banyak lagi. :)


Bukankah itu tergantung pada seberapa sering algoritma itu disebut ..?
bobobobo

Sampai taraf tertentu. Tetapi jika butuh 3 hari untuk berjalan, mungkin tidak masalah jika Anda hanya memanggilnya sekali. :)
Kylotan

1

Big-O hanyalah panduan - sesuatu yang memberi tahu Anda kinerja kasar yang dapat Anda harapkan dari suatu algoritma - dan bagaimana Anda seharusnya mengharapkan kinerja untuk meningkat saat Anda meningkatkan ukuran dataset . Anda harus mengingat dua hal utama terkait Big-O:

1) Jika Anda memiliki dua algoritma yang sebagian besar melakukan hal yang sama tetapi satu memiliki O yang lebih baik, Anda mungkin harus menggunakan yang itu (jelas)

2) Big O berkaitan dengan analisis asimptotik . Big-O hanya benar-benar berperan ketika n besar . Sebagai contoh, suatu algoritma O (n) dapat sangat mirip dalam kinerjanya dengan suatu O (n ^ 2) satu .. untuk n kecil . Jika Anda berbicara tentang sebuah algoritma yang membutuhkan n ^ 2 operasi per titik, tapi n = 2 atau n = 3, maka ada tidak banyak perbedaan antara O (n ^ 2) algoritma (mengambil 4 dan 9 ops resp) dan sebuah O (n) satu (2 dan 3 ops resp.). Namun, jika n = 9, maka Anda tiba-tiba berbicara tentang 81 operasi untuk algoritma O (n ^ 2) dan hanya 9 untuk O (n) satu - perbedaan yang lebih besar - dan jika n = 100, maka Anda adalah berbicara tentang 100 ops vs 10000 - perbedaan yang jauh lebih besar.

Jadi Anda harus selalu mempertimbangkan Big-O dalam cahaya itu: ini dimaksudkan untuk membandingkan algoritma yang melakukan hal yang sama berdasarkan kinerja kasus terburuk saat n menjadi besar . Perbedaan antara algoritma mungkin sangat kecil bila n sangat kecil.


0

Saya tidak punya referensi tetapi Big O setidaknya berguna untuk diperhatikan ketika menganalisis masalah dan diskusi. Di sisi lain, tentu saja, jika versi O (log n) memiliki cara yang lebih melibatkan O daripada versi O (n) itu adalah perbandingan yang bisa diperdebatkan. Dan seperti segalanya, selalu ada trade off. Kompleksitas ruang bisa menjadi masalah, meskipun itu bisa diekspresikan dalam O secara umum juga. Analisis kasus normal ... kurang begitu, karena Anda tidak ingin outlier juga lonjakan. Kesederhanaan atas kerumitan, menurut saya, relatif tidak berguna dalam pengembangan game karena kecepatan hampir selalu menjadi masalah, jadi kecuali kesederhanaan mengarah ke percepatan (tapi kemudian itu berarti kasus kompleks Anda salah karena alasan yang salah) kesederhanaan harus pergi keluar dari jendela demi kecepatan. Tapi Big O pasti berguna,


0

Saat Anda membuat prototipe fungsi gim atau aspek gim, Anda tidak perlu khawatir untuk mengoptimalkannya sama sekali .

Dalam proses pembuatan prototipe dan belajar tentang keistimewaan fungsi itu, optimasi yang diperlukan akan menjadi jelas & akan menjadi faktor dalam desain akhir seperti sifat kedua ... sebagian besar waktu.

Jangan dipikirkan.


"Saat kamu membuat prototipe fungsi gim atau aspek gim, kamu tidak perlu khawatir untuk mengoptimalkannya sama sekali." Ini benar kadang-kadang tetapi tidak selalu. Game tertentu, seperti Dead Rising, mengandalkan eksekusi cepat untuk membuat mekanik game inti - ratusan zombie secara real-time - layak.

Berapa persentase pengembangan game prototyping? Akhirnya Anda ingin mengirimkan sesuatu , bukan?
dash-tom-bang

0

Seharusnya tidak menjadi yang terbaik dan yang terakhir. Tapi itu membantu memilah masalah yang jelas yang dapat menyebabkan kinerja hit; mengapa menggunakan sesuatu dalam waktu O (n ^ 2), ketika Anda dapat melakukan hal yang sama dalam waktu O (log n)?

Saya pikir itu berlaku untuk permainan lebih dari kebanyakan industri lain, karena pasar adalah orang yang paling memperhatikan masalah kecepatan. Seseorang yang menggunakan pengolah kata tidak akan peduli jika ada penundaan setengah detik untuk melakukan tindakan X, tetapi gamer mungkin akan pergi 'omg omg game Y sangat lambat sehingga butuh waktu lama untuk melakukan tindakan Z'.


0

Dalam pengembangan game (dan sebagian besar lainnya), kami mengeluh tentang satu operasi ekstra yang dilakukan per loop:

for (int i = 0; i < array.length; i ++) { /* ... */ }

vs.

for (int i = 0, l = array.length; i < l; i ++) { /* ... */ }

Sebagian besar gim modern memiliki fisika, dan Anda akan menemukan masalah simulasi n-body . Dalam algoritma naif, itu O (n ^ 2), tetapi ada optimasi yang membuatnya O (n log n) (tetapi mengorbankan beberapa akurasi).

Anda bisa mengatakan, Anda tidak memprogram gravitasi dan interaksi partikel, tetapi bagaimana dengan perilaku tim pasukan (zombie) di mana mereka bergerak bergantung pada lokasi lain (dengan kata yang lebih spesifik: berkerumun)?

Dalam algoritma pendeteksian tabrakan konvensional, kompleksitas waktu adalah O (n ^ 2), seperti n-body. Namun, ada cara yang lebih baik: Pisahkan dunia ke banyak bagian kecil sehingga hanya objek di dalam bagian yang sama yang terdeteksi tabrakan. Lihat http://www.videotutorialsrock.com/opengl_tutorial/collision_detection/text.php .

Jika gim Anda dapat skrip, JANGAN membuat skrip menulis algoritma O-n (2 ^) (dan lebih) 2-angka dalam skrip, seperti mencari tas pengguna. Sebaliknya, buat fungsi bawaan dalam kode.


1
Kedua contoh kode Anda adalah O (n). Diskusi Big-O tidak ada hubungannya dengan "satu operasi tambahan per loop," melainkan "satu pencarian ekstra melalui semua per iterasi dari loop atas segalanya."
dash-tom-bang

-2

Di dunia nyata hanya kinerja mentah yang diperhitungkan. Sekarang, Big-O dari suatu algoritma mungkin berfungsi sebagai indikasi pertama tentang apa yang harus digunakan, tetapi tergantung pada perangkat keras implementasinya mungkin sangat tidak efisien. Misalnya melakukan pencarian linear seringkali lebih cepat daripada pencarian biner karena Anda mendapatkan akses memori linier dan tidak ada cabang.

Selain itu, karena arah saat ini dalam platform dan arsitektur multi-ulir, Big-O kehilangan banyak arti karena hanya memperhitungkan skalabilitas vertikal memori atau data yang disentuh per operasi alih-alih juga mempertimbangkan bagaimana algoritma sisik dengan jumlah utas yang lebih besar.


3
Ini tidak benar, notasi O Besar digunakan untuk menunjukkan batas atas algoritma paralel sama seperti algoritma linier. Big O dapat digunakan untuk arsitektur baca / konkuren bersamaan, dll. Anda bahkan dapat melakukan hal-hal gila seperti menyortir dalam O (1) dengan prosesor n ^ 2 hah
David Young

David, apakah Anda memiliki contoh kehidupan nyata? Maksudku, aku juga bisa Big-O jumlah apel yang bisa dibawa oleh sekelompok orang, tetapi itu tidak berarti bahwa itu digunakan atau berguna. Dari pengalaman saya, sebagian besar waktu gamedev memilih algoritma (paralel) mereka berdasarkan kinerja mentah, bukan pada fungsi pertumbuhan mereka.
Jasper Bekkers

3
"mengurutkan dalam O (1) dengan prosesor n ^ 2" Saya biasanya merasa bahwa penggunaan O ini menyesatkan karena penggunaan sumber daya masih O (n ^ 2) tidak peduli bagaimana Anda mengiris masalah. Jumlah utas yang lebih besar tidak hanya berarti jumlah siklus cpu yang lebih besar per detik.
Richard Fabian

Mengurutkan dalam O (1) dengan prosesor n ^ 2 bukan contoh terbaik, jenis notasi Big-O ini mungkin paling sering terlihat di dunia akademis. Sesuatu seperti ini cs.bu.edu/~best/crs/cs551/homeworks/hw1/pram.html Algoritma paralel yang lebih realistis dapat menggunakan prosesor log (n). Jenis barang ini lebih cocok untuk overloading ke pemrosesan GPU atau komputasi super di mana ada ratusan core yang tersedia.
David Young

err maksud saya offloading, bukan overloading. Tidak dapat mengedit komentar asli saya lagi.
David Young
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.