Notasi Big O adalah cara membandingkan algoritma. Ini membandingkannya dengan menghitung berapa banyak memori yang dibutuhkan dan berapa banyak waktu yang dibutuhkan untuk menyelesaikannya.

Notasi Big O sering digunakan dalam mengidentifikasi seberapa kompleks suatu masalah, juga dikenal sebagai kelas kompleksitas masalah. Matematikawan Paul Bachmann (1837-1920) adalah orang pertama yang menggunakan notasi ini, dalam edisi kedua bukunya "Analytische Zahlentheorie", pada tahun 1896. Edmund Landau (1877-1938) membuat notasi ini populer. Karena alasan ini, ketika orang berbicara tentang simbol Landau, mereka mengacu pada notasi ini.

Notasi Big O dinamai sesuai dengan istilah "orde fungsi", yang mengacu pada pertumbuhan fungsi. Notasi Big O digunakan untuk menemukan batas atas (jumlah tertinggi yang mungkin) dari tingkat pertumbuhan fungsi, yang berarti ia menghitung waktu terlama yang diperlukan untuk mengubah input menjadi output. Ini berarti sebuah algoritma dapat dikelompokkan berdasarkan berapa lama waktu yang dibutuhkan dalam skenario terburuk di mana rute terpanjang akan diambil setiap saat.

Big O adalah ekspresi yang menemukan skenario run-time terburuk, menunjukkan seberapa efisien sebuah algoritma tanpa harus menjalankan program di komputer. Hal ini juga berguna karena komputer yang berbeda mungkin memiliki perangkat keras yang berbeda dan oleh karena itu membutuhkan waktu yang berbeda untuk menyelesaikannya. Karena Big O selalu mengasumsikan kasus terburuk, Big O dapat menunjukkan pengukuran kecepatan yang konsisten: terlepas dari perangkat keras Anda, O ( 1 ) {\displaystyle O(1)}{\displaystyle O(1)} selalu akan selesai lebih cepat daripada O ( n ! ) {\displaystyle O(n!)}{\displaystyle O(n!)} karena mereka memiliki tingkat efisiensi yang berbeda.