Как умножить BigInteger на десятичное число в C #?
var bi = new BigInteger(1000);
var d = 0.9m;
// HowTo:
var res = BigInteger.Multiply(bi, d); // res = 900
Конечно, результат должен быть floored вплоть до предыдущего полного целочисленного значения.
Имеется практическая основа, но что касается опубликованного «дубликата», меня также интересует ответ на вопрос с теоретической точки зрения.Я не ищу обходной путь, используя вместо этого двойной.