Проблема
Я запускаю docker-compose up
, когда разрабатываю, поэтому мне просто нужно быстро взглянуть на терминал (используя встроенный кодовый терминал против), чтобы увидеть, проверяются ли мои модульные тесты, задания на ворс и все такоеработают нормально.
То же самое, если я хочу console.log
что-то в API, оно просто появляется в терминале, и я могу отлаживать его.
Однако, начиная с сегодняшнего дня, вместо того, чтобы получать журналы от всехконтейнеры, у меня только есть журналы из контейнеров transpiler
, kibana
и apm-server
.
Какую проблему я хочу решить
Я использовал, чтобы сделать Ctrl + S для запускаконтейнер linter и mocha (потому что оба этих контейнера используют nodemon, поэтому при изменении файлов они будут выводиться), а файлы сценариев встраиваются в js (транспортер в режиме наблюдения) и выводят все на терминал.
Нет выходных данных api
, mocha
и linter
, хотя я и добавил в код немного console.log
...
Я не сделал какого-либо серьезного обновления, просто переключил компьютер (оба - Ubuntu Linux с установленным докером), и я не могу понять, как решить эту проблему
docker-compose.yml file
version: "3.3"
services:
api:
container_name: api
build: .
env_file:
- .env
volumes:
- .:/app
- /app/node_modules
ports:
- 9000:9000
restart: always
depends_on:
- mongo
- elasticsearch
command: sh -c "mkdir -p dist && touch ./dist/app.js && yarn run start"
healthcheck:
test: ["CMD", "curl", "-f", "http://localhost:9000/api/v1/ping"]
interval: 1m30s
timeout: 10s
retries: 3
transpiler:
container_name: transpiler
build: .
restart: always
volumes:
- .:/app
- /app/node_modules
command: yarn run transpile -w
linter:
container_name: linter
build: .
restart: always
volumes:
- .:/app
- /app/node_modules
# https://github.com/yarnpkg/yarn/issues/5457 --silent not working
command: nodemon --delay 500ms --exec yarn run lint
mongo:
container_name: mongo
image: mongo:4.0
restart: always
ports:
- 27017:27017
command: mongod
volumes:
- ./db/mongodb:/data/db
mongo_express:
container_name: mongo_express
restart: always
image: mongo-express
ports:
- 8081:8081
depends_on:
- mongo
healthcheck:
test: ["CMD", "curl", "-f", "http://localhost:8081"]
interval: 2m30s
timeout: 10s
retries: 3
elasticsearch:
image: docker.elastic.co/elasticsearch/elasticsearch:6.6.0
container_name: elasticsearch
restart: always
volumes:
- ./db/elasticsearch:/usr/share/elasticsearch/data
environment:
- bootstrap.memory_lock=true
- ES_JAVA_OPTS=-Xms512m -Xmx512m
- discovery.type=single-node
ports:
- 9300:9300
- 9200:9200
healthcheck:
test: ["CMD", "curl", "-f", "http://localhost:9200"]
interval: 1m30s
timeout: 10s
retries: 3
kibana:
container_name: kibana
restart: always
image: docker.elastic.co/kibana/kibana:6.6.0
ports:
- 5601:5601
depends_on:
- elasticsearch
healthcheck:
test: ["CMD", "curl", "-f", "http://localhost:5601"]
interval: 1m30s
timeout: 10s
retries: 3
logstash:
container_name: logstash
restart: always
image: docker.elastic.co/logstash/logstash:6.6.0
ports:
- 9600:9600
environment:
- KILL_ON_STOP_TIMEOUT=1
volumes:
- ./logstash/settings/:/usr/share/logstash/config/
- ./logstash/pipeline/:/usr/share/logstash/pipeline/
depends_on:
- elasticsearch
healthcheck:
test: ["CMD", "curl", "-f", "http://localhost:9600"]
interval: 1m30s
timeout: 10s
retries: 3
apm-server:
container_name: apm_server
restart: always
image: docker.elastic.co/apm/apm-server:6.6.0
ports:
- 8200:8200
volumes:
- ./apm_settings/apm-server.yml:/usr/share/apm-server/apm-server.yml
depends_on:
- elasticsearch
healthcheck:
test: ["CMD", "curl", "-f", "http://localhost:8200"]
interval: 1m30s
timeout: 10s
retries: 3
mocha:
container_name: mocha
restart: always
build: .
volumes:
- .:/app
- /app/node_modules
command: nodemon --delay 500ms --exec yarn run test-coverage
env_file:
- .env
environment:
NODE_ENV: 'test'
volumes:
esdata:
Dockerfile
FROM mhart/alpine-node:10
ADD . /app
WORKDIR /app
RUN apk add --no-cache --virtual .gyp g++ libtool make python curl &&\
yarn &&\
yarn global add nodemon &&\
apk del .gyp
Пример данных
Когда я запускаю docker-up all output в порядке:
mongo | 2019-03-22T23:11:26.048+0000 I NETWORK [conn6] end connection 172.22.0.8:52266 (3 connections now open)
apm_server | 2019-03-22T23:11:26.048Z INFO [request] beater/v2_handler.go:96 error handling request {"request_id": "77b88109-c7c0-41a2-a28c-2343a82862bd", "method": "POST", "URL": "/intake/v2/events", "content_length": -1, "remote_address": "172.22.0.8", "user-agent": "elastic-apm-node/2.6.0 elastic-apm-http-client/7.1.1", "error": "unexpected EOF"}
api | [nodemon] app crashed
api | error Command failed with exit code 1.
api | info Visit https://yarnpkg.com/en/docs/cli/run for documentation about this command.
mocha |
mocha |
mocha | Express server listening on port 9000, in test mode
mocha | GET PING ressource
mocha | GET /api/v1/ ping/
mongo | 2019-03-22T23:11:27.951+0000 I NETWORK [listener] connection accepted from 172.22.0.2:39956 #8 (4 connections now open)
mongo | 2019-03-22T23:11:27.961+0000 I NETWORK [conn8] received client metadata from 172.22.0.2:39956 conn8: { driver: { name: "nodejs", version: "3.1.13" }, os: { type: "Linux", name: "linux", architecture: "x64", version: "4.20.7-042007-generic" }, platform: "Node.js v10.15.3, LE, mongodb-core: 3.1.11" }
mongo | 2019-03-22T23:11:28.051+0000 I NETWORK [listener] connection accepted from 172.22.0.2:39958 #9 (5 connections now open)
mongo | 2019-03-22T23:11:28.197+0000 I NETWORK [listener] connection accepted from 172.22.0.2:39962 #10 (6 connections now open)
mocha | ✓ ping api (154ms)
Да, я знаю, что эти журналы показывают некоторые ошибки, но моя главная задача - по-прежнему выводить их в терминал
, но выполнение ctrl + s просто показываетэто: (это моя настоящая проблема):
[10:59:15 PM] File change detected. Starting incremental compilation...
transpiler |
transpiler | [10:59:15 PM] Found 0 errors. Watching for file changes.
transpiler |
apm_server | 2019-03-22T22:59:40.309Z INFO [request] beater/common_handlers.go:272 handled request {"request_id": "5948c9ee-c6fd-42ad-bd1e-acc259e1634c", "method": "POST", "URL": "/intake/v2/events", "content_length": -1, "remote_address": "172.22.0.11", "user-agent": "elastic-apm-node/2.6.0 elastic-apm-http-client/7.1.1", "response_code": 202}
kibana | {"type":"response","@timestamp":"2019-03-22T22:59:44Z","tags":[],"pid":1,"method":"get","statusCode":302,"req":{"url":"/","method":"get","headers":{"user-agent":"curl/7.29.0","host":"localhost:5601","accept":"*/*"},"remoteAddress":"127.0.0.1","userAgent":"127.0.0.1"},"res":{"statusCode":302,"responseTime":7,"contentLength":9},"message":"GET / 302 7ms - 9.0B"}
То, что я пробовал (и не сработало)
- удаление всех контейнеров
- удаление всех контейнерови их объем
- удаление всех контейнеров и их объема и всего образа
- перезагрузка
- восстановление (
docker-compose build
) после удаления всего - запуск
docker-compose up
cmd из простого терминала, чтобы убедиться, что это не проблема с интегрированным терминалом с кодом - перезапуск службы Docker (
sudo systemctl restart docker
)