Например, в Java / C ++ вы случайно говорите, что 'a'
- это первый символ "abc"
или ноль ?
Говорят ли люди и то и другое, и это всегда будет неоднозначно, или есть фактическое соглашение?
Цитата из Википедии о Zeroth Статья:
В информатике ссылки на массивы также часто начинаются с 0
, поэтому программисты могут использовать ноль в ситуациях, когда другие могут использовать сначала, и т. Д.
Казалось бы, это подтверждает гипотезу, что это всегда будет неоднозначно.
Спасибо Александросу Гезерлису ( см. Его ответ ниже ) за то, что он нашел эту цитату из Как думать как компьютерный учитель: Изучение с Python Аллена Б. Дауни, Джеффри Элкнер и Крис Мейерс, глава 7 :
Первая буква "banana"
не a
. Если вы не ученый компьютер. По ошибочным причинам компьютерные ученые всегда начинают считать с нуля. 0-я буква (ноль-эт) "banana"
равна b
. 1-я буква (один-эт) - a
, а 2-я (двухэтник) - n
.
Это, по-видимому, говорит о том, что мы, ученые-компьютерщики, должны отвергать естественную семантику «первое», «второе» и т. Д. При работе с системами индексации на основе 0.
Эта цитата предполагает, что, возможно, ARE официальных постановлений для определенных языков, поэтому я сделал этот вопрос [language-agnostic]
.