Встроенные символы тетради Jupyter в тетради перекрываются с текстом - PullRequest
1 голос
/ 29 апреля 2019

Я запускаю ноутбук Jupyter с ipykernel (v5.1.0) в Mozilla Firefox (66.0.3), но я видел, что это происходит и в Chrome.Я на Windows 10, 64-битная, если эта информация актуальна.

При рендеринге mathjax на существующем ноутбуке, он часто выглядит как:

enter image description here

, где встроенные символы mathjax, кажется, пересекаются с основным текстом.кажется, что средство визуализации обрабатывает математическое содержимое как имеющее нулевую ширину (?).

Просто чтобы прояснить:

  • математические символы отображаются нормально, когда я их печатаю;они даже выглядят нормально, если я выполню ячейку уценки.
  • вышеупомянутая проблема возникает только тогда, когда я сохраняю ноутбук, покидаю сервер, загружаю новый сервер jupyter и снова запускаю ноутбук.
  • это влияет только на встроенную математику, а не на отображаемую математику, как вы можете видеть на картинке.
  • Я могу исправить это, повторно выполняя повторное заполнение ячейки уценки при каждой новой сессии, но это становится довольно раздражающим.

Основной код выглядит следующим образом:

<span class="kw">Principal Component Analysis</span> is an unsupervised linear transformation technique.
It helps to identify patterns in data based on correlations between features.

PCA aims to find the directions of maximum variance in high-dimensional data and projects them onto a new subspace spanned by these vectors (with equal/fewer dimensions than the original one).
Mathematically-speaking, we construct a $d\times k$-dimensional transformation matrix $W$ that allows us to map a sample vector $x$ in $d$-dimensional feature space ($x\in \mathbb{R}^d$) onto a new $k$-dimensional subspace.

$$
x \longrightarrow z = xW
$$

**General PCA algorithm**
1. Center the $d$-dimensional dataset around the origin. Z-scoring (dividing by stdev may help, or not).
2. Construct covariance matrix.
3. Decompose the covariance matrix onto its eigenvectors and eigenvalues.
4. Sort the eigenvalues by decreasing order to rank the corresponding eigenvectors.
5. Select $k$ eigenvectors that correspond to the $k$ largest eigenvalues, where $k$ is the dimensionality of the new feature subspace ($k\leq d$)
6. Construct a projection matrix $W$ from the $k$ eigenvectors chosen in step 4.
7. Perform the projection by multiplying $X^\top W$ (a $n\times k$ matrix), to obtain a new $k$-dimensional feature subspace.

Я не представляю себя единственным, кто испытывает это, но я не смог найти никого, кто бы обсуждал эту проблему в Интернете,Как мне это исправить?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...