В арифметике деление на ноль не имеет смысла. Рассмотрим общий случай деления х/0.
При х ≠ 0 не существует числа, которое при умножении на 0 даёт х.
При х = 0 деление на ноль не определено, так как любое число при умножении на 0 даёт 0.
Поэтому в языках программирования для целочисленных значений деление на ноль является критической ошибкой. Для вещественных чисел существует стандарт IEEE 754. В нем существуют положительный и отрицательный нуль, положительная и отрицательная бесконечность, а также нечисла (англ. Not-a-Number, NaN).
При х ≠ 0 получаем +/- INF (бесконечность).
При х = 0 получаем NaN (не число).
Для случаев, приведенных в вопросе, произойдет округление до +INF (положительная бесконечность). Поэтому 10/0 и 5/0 равны.
Но что самое смешное, абсолютный ноль в природе не наблюдается. И вещественные числа практически никогда не бывают равны абсолютному нулю.
Если ноль в реальности представляет собою очень малую величину (почти ноль) и нам хватает разрядности для представления чисел, то округления до бесконечности не произойдет и результат будет представлен числом. В этом случае 10/0 больше чем 5/0.
Таков мой ответ на вопрос.
Если я в чём-то ошибаюсь, пожалуйста, поправьте меня в комментариях.