https://ja.wikipedia.org/wiki/%E3%83%A9%E3%83%B3%E3%83%80%E3%82%A6%E3%81%AE%E8%A8%98%E5%8F%B7
上記記事の「厳密な定義」によると、
「f(x) が x → ∞ のとき O(g(x)) 程度である」
とは、xが十分大きいとき、fの絶対値がgの絶対値の定数倍で抑えられるということのようです。
そうだとすると、例えばO(n*log n)のアルゴリズムはすべてO(n^2)でもあるといっても定義上間違いではないですよね?
しかし実際には「クイックソートの平均計算量はO(n^2)である」と言えば間違い扱いされると思います。
計算機科学の世界では厳密にはどういうことになっているのでしょうか?

回答5件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。