Aktualizacja v2.2.0 -> v2.3.0

Moderator: fracz

mariusz_70
Posts: 31
Joined: Thu Nov 10, 2016 5:51 pm

Sat Feb 16, 2019 8:25 am

fracz wrote:
Fri Feb 15, 2019 9:35 pm
....... nadal jest tam dość stara wersja dockera.
Docker na Qnap-ie to :

Docker version 17.09.1-ce, build 0a5102e
docker-compose version 1.22.0, build f46880f

odpuściłem sobie Qnapa, odkurzyłem swoją maline postawiłem wszystko zgodnie z tym tematem
viewtopic.php?f=23&t=4081 i śmiga. @lesny8 DZIĘKUJE!! za tak szczegółowy opis.
Pozdrawiam
User avatar
fracz
Posts: 1451
Joined: Fri Oct 28, 2016 10:56 pm
Location: Rybna

Sat Feb 16, 2019 6:03 pm

Czy komuś jeszcze coś nie działa?
djack2017
Posts: 165
Joined: Mon Nov 27, 2017 7:36 am

Sat Feb 16, 2019 10:17 pm

Aktualizacja własnego serwera (VPS - Debian 8.11) niestety u mnie nie działa.
1. Przy aktualizacji:
git pull
./supla.sh upgrade

root@supla:~/supla-docker# git pull
Updating 5a0a6c7..1873994
error: Your local changes to the following files would be overwritten by merge:
docker-compose.yml
Please, commit your changes or stash them before you can merge.
Aborting

root@supla:~/supla-docker# ./supla.sh upgrade
Aktualizacja wykonuje się, konternery starują, zalogowanie jest możliwe ale są komunikaty "serwer down"

2. Przy aktualizacji:
git checkout -f master
git pull
./supla.sh upgrade

Aktualizacja wykonuje się. Nie ma w/w błędu przy git pull. Kontenery startują, ale nie ma już nawet ekranu logowania do clouda
Last edited by djack2017 on Mon Feb 18, 2019 2:27 pm, edited 1 time in total.
thomass
Posts: 20
Joined: Wed Dec 19, 2018 11:31 pm
Location: Rzeszów

Sun Feb 17, 2019 8:52 pm

fracz wrote:
Sat Feb 16, 2019 6:03 pm
Czy komuś jeszcze coś nie działa?

Code: Select all

pi@raspberrypi:~ $ docker logs --tail=50 supla-server
INFO[1550356193.426449] Server version 2.3.1 [Protocol v10]
INFO[1550356193.426789] Started at Sat Feb 16 22:29:53 2019
INFO[1550356193.584536] SSL version: OpenSSL 1.0.1t  3 May 2016
2019-02-16 22:29:54,588 INFO success: supla-scheduler entered RUNNING state, process has stayed up for > than 1 seconds (startsecs)
2019-02-16 22:29:54,759 INFO success: supla-server entered RUNNING state, process has stayed up for > than 1 seconds (startsecs)
2019-02-16 22:40:35,100 WARN received SIGTERM indicating exit request
2019-02-16 22:40:35,101 INFO waiting for supla-scheduler, supla-server to die
INFO[1550356835.101386] Shutting down...
ERR[1550356835.102073] IPC connection accept error 9
ERR[1550356835.104818] Connection accept error 9
ERR[1550356835.105431] Connection accept error 9
INFO[1550356835.114768] Stopped at Sat Feb 16 22:40:35 2019
2019-02-16 22:40:35,118 INFO stopped: supla-server (exit status 0)
INFO[1550356835.120054] Shutting down...
INFO[1550356835.121015] Stopped at Sat Feb 16 22:40:35 2019
2019-02-16 22:40:35,124 INFO stopped: supla-scheduler (exit status 0)
2019-02-16 22:41:05,170 CRIT Supervisor running as root (no user in config file)
2019-02-16 22:41:05,185 INFO supervisord started with pid 1
2019-02-16 22:41:06,192 INFO spawned: 'supla-scheduler' with pid 9
2019-02-16 22:41:06,200 INFO spawned: 'supla-server' with pid 10
INFO[1550356866.253053] Server version 2.3.1 [Protocol v10]
INFO[1550356866.255206] Scheduler version 2.3.1
INFO[1550356866.253712] Started at Sat Feb 16 22:41:06 2019
INFO[1550356866.255720] Started at Sat Feb 16 22:41:06 2019
INFO[1550356866.301550] SSL version: OpenSSL 1.0.1t  3 May 2016
2019-02-16 22:41:07,305 INFO success: supla-scheduler entered RUNNING state, process has stayed up for > than 1 seconds (startsecs)
2019-02-16 22:41:07,306 INFO success: supla-server entered RUNNING state, process has stayed up for > than 1 seconds (startsecs)
2019-02-16 22:43:07,515 CRIT Supervisor running as root (no user in config file)
2019-02-16 22:43:07,539 INFO supervisord started with pid 1
2019-02-16 22:43:08,546 INFO spawned: 'supla-scheduler' with pid 10
2019-02-16 22:43:08,554 INFO spawned: 'supla-server' with pid 11
INFO[1550356988.735516] Scheduler version 2.3.1
INFO[1550356988.735985] Started at Sat Feb 16 22:43:08 2019
INFO[1550356988.745935] Server version 2.3.1 [Protocol v10]
INFO[1550356988.746286] Started at Sat Feb 16 22:43:08 2019
INFO[1550356989.25953] SSL version: OpenSSL 1.0.1t  3 May 2016
2019-02-16 22:43:10,029 INFO success: supla-scheduler entered RUNNING state, process has stayed up for > than 1 seconds (startsecs)
2019-02-16 22:43:10,059 INFO success: supla-server entered RUNNING state, process has stayed up for > than 1 seconds (startsecs)
INFO[1550419994.373186] Connection accepted: 193.188.22.75:1733 ClientSD: 10 Secure: 1
2019-02-17 17:26:20,690 CRIT Supervisor running as root (no user in config file)
2019-02-17 17:26:20,713 INFO supervisord started with pid 1
2019-02-17 17:26:21,720 INFO spawned: 'supla-scheduler' with pid 9
2019-02-17 17:26:21,730 INFO spawned: 'supla-server' with pid 10
INFO[1550424381.881747] Scheduler version 2.3.1
INFO[1550424381.882158] Started at Sun Feb 17 17:26:21 2019
INFO[1550424381.894599] Server version 2.3.1 [Protocol v10]
INFO[1550424381.894933] Started at Sun Feb 17 17:26:21 2019
INFO[1550424382.52896] SSL version: OpenSSL 1.0.1t  3 May 2016
2019-02-17 17:26:23,056 INFO success: supla-scheduler entered RUNNING state, process has stayed up for > than 1 seconds (startsecs)
2019-02-17 17:26:23,056 INFO success: supla-server entered RUNNING state, process has stayed up for > than 1 seconds (startsecs)

Code: Select all

pi@raspberrypi:~ $  docker logs --tail=50 supla-cloud
supla:clean:obsolete-oauth-tokens: NOT NOW
supla:clean:orphaned-measurement-logs: NOT NOW
supla:clean:disable-broken-schedules: NOT NOW
supla:clean:disable-demo-client-apps: RUN:
Clients to disable: 0
supla:generate-schedules-executions: NOT NOW
supla:clean:passed-io-client-registration-dates: RUN:
Client registration expiration date - cleared: 0
I/O Device registration expiration date - cleared: 0
supla:clean:broker-clouds-cache: NOT NOW
supla:clean:not-confirmed-users: NOT NOW
supla:clean:obsolete-oauth-tokens: NOT NOW
supla:clean:orphaned-measurement-logs: NOT NOW
supla:clean:disable-broken-schedules: NOT NOW
supla:clean:disable-demo-client-apps: RUN:
Clients to disable: 0
supla:generate-schedules-executions: NOT NOW
supla:clean:passed-io-client-registration-dates: RUN:
Client registration expiration date - cleared: 0
I/O Device registration expiration date - cleared: 0
supla:clean:broker-clouds-cache: NOT NOW
supla:clean:not-confirmed-users: NOT NOW
supla:clean:obsolete-oauth-tokens: NOT NOW
supla:clean:orphaned-measurement-logs: NOT NOW
supla:clean:disable-broken-schedules: NOT NOW
supla:clean:disable-demo-client-apps: RUN:
Clients to disable: 0
supla:generate-schedules-executions: NOT NOW
supla:clean:passed-io-client-registration-dates: RUN:
Client registration expiration date - cleared: 0
I/O Device registration expiration date - cleared: 0
supla:clean:broker-clouds-cache: NOT NOW
supla:clean:not-confirmed-users: NOT NOW
supla:clean:obsolete-oauth-tokens: NOT NOW
supla:clean:orphaned-measurement-logs: NOT NOW
supla:clean:disable-broken-schedules: NOT NOW
supla:clean:disable-demo-client-apps: RUN:
Clients to disable: 0
supla:generate-schedules-executions: NOT NOW
supla:clean:passed-io-client-registration-dates: RUN:
Client registration expiration date - cleared: 0
I/O Device registration expiration date - cleared: 0
supla:clean:broker-clouds-cache: NOT NOW
supla:clean:not-confirmed-users: NOT NOW
supla:clean:obsolete-oauth-tokens: NOT NOW
supla:clean:orphaned-measurement-logs: NOT NOW
supla:clean:disable-broken-schedules: NOT NOW
supla:clean:disable-demo-client-apps: RUN:
Clients to disable: 0
supla:generate-schedules-executions: NOT NOW
Raspberry 2B
Instalacja na czystej karcie (kilkanascie razy)
Nie pomaga:
-restart

-git pull
./supla.sh upgrade

-docker-compose pull

Wszystkie komendy oczywiście działają, wszystko idzie, pięknie się instaluje, logowanie przez https:// port 445 i http://85 na wszelki wypadek żeby z czymś nie kolidowało i nic.
Wojtku, piszę do Was z wielką nieśmiałością, ponieważ nie jestem w stanie pomóc jak ścisła czołówka testerów z forum.
W którymś miejscu na forum piszesz, żeby dać Ci dostęp do rpi aby rozwiązać problem.
Mogę dać na priv wszystko (nr visa), żebym tylko wiedział jak.
Na tem moment wysyłam na priv to co potrafię.
Attachments
error1.jpg
error1.jpg (35.82 KiB) Viewed 408 times
User avatar
fracz
Posts: 1451
Joined: Fri Oct 28, 2016 10:56 pm
Location: Rybna

Mon Feb 18, 2019 7:50 am

djack2017 wrote:
Sat Feb 16, 2019 10:17 pm
Aktualizacja własnego serwera (VPS - Debian 8.11) niestety u mnie nie działa.
[...]
Aktualizacja wykonuje się. Nie ma w/w błędu przy git pull. Kontenery startują, ale nie ma już nawet ekranu logowania do clouda
Zazwyczaj jak są dwie komendy do wykonania i pierwsza nie przeszła to wypada sie zatrzymać ;-) Miałeś jakieś lokalne zmiany - trudno mi powiedzieć jakie. Dodanie parametru -f nadpisało je i pewnie teraz dlatego nie widzisz Clouda. Pamiętasz co tam zmieniałeś i po co?

@thomass wiem o co chodzi, ten sam problem miał @djack2017 zanim wyoknał checkout -f. Dziś będzie poprawka.
thomass
Posts: 20
Joined: Wed Dec 19, 2018 11:31 pm
Location: Rzeszów

Mon Feb 18, 2019 7:53 am

Dziękuję - czekam...
Seba5120
Posts: 306
Joined: Mon Oct 31, 2016 1:33 pm

Mon Feb 18, 2019 7:58 am

thomass wrote:
Sun Feb 17, 2019 8:52 pm
Wszystkie komendy oczywiście działają, wszystko idzie, pięknie się instaluje, logowanie przez https:// port 445 i http://85 na wszelki wypadek żeby z czymś nie kolidowało i nic.

Jaki masz adres clouda ustawiony w .env ?
Z portem czy bez?
Ustaw adres z portem i daj restart supli, odczekaj kilkanaście sekund, od razu nie wskakuje...
thomass
Posts: 20
Joined: Wed Dec 19, 2018 11:31 pm
Location: Rzeszów

Mon Feb 18, 2019 8:02 am

Bez portu. Zaraz spróbuję...
User avatar
fracz
Posts: 1451
Joined: Fri Oct 28, 2016 10:56 pm
Location: Rybna

Mon Feb 18, 2019 12:37 pm

Wydaliśmy wersję SUPLA-Cloud v2.3.1. Komunikat "logowanie tymczasowo niedostępne" nie powinien już się pojawiać w konfiguracjach z wymieszanym IP/DDNS.

Aktualizacja jak zawsze.
thomass
Posts: 20
Joined: Wed Dec 19, 2018 11:31 pm
Location: Rzeszów

Mon Feb 18, 2019 6:32 pm

Nie sprawdzałem jeszcze wszystkiego, ale ruszyło za pierwszym razem
Wielkie dzięki !!!
Post Reply