почему существовала ошибка y2k? - PullRequest
8 голосов
/ 17 ноября 2010

Объяснение, которое я получил для этого, состояло в том, что для программистов было обычной практикой просто представлять год двумя цифрами.Но зачем кому-то это делать?Во всяком случае, я думаю, что потребуется больше усилий, чтобы откатить программу до 1900 года вместо того, чтобы перейти к 2000 году.

Ответы [ 3 ]

16 голосов
/ 17 ноября 2010

Премиум дискового пространства + отсутствие предвидения = ошибка 2000 года.

Сохранение байтов было очень важно во многих старых системах. Кроме того, распространенной ошибкой в ​​разработке программного обеспечения является то, что «никто не собирается использовать это через X лет». Так почему бы не сохранить эти байты сейчас? 10/20/30 лет спустя это ОБЯЗАТЕЛЬНО будет отменено для совершенно новой системы.

По словам Лекса Лютора - "Неправильно".

3 голосов
/ 17 ноября 2010

Почему? Их вопрос был, вероятно, «почему бы и нет?» Если это сэкономило несколько бит в мире, где использование памяти было значительно более ограничено, то они решили, что могут также сэкономить это пространство.

Очевидно, что «почему нет» было потому, что «ваше программное обеспечение действительно использовалось в течение значительного количества времени». У некоторых программистов было предвидение, чтобы планировать заранее, но не у всех.

2 голосов
/ 17 ноября 2010

История гласит, что это было в то время, когда 1 килобайт ОЗУ стоил более 1000 долларов.Пропуск лишних цифр означал действительно экономию денег.

...