26.06.2020, 11:08
Hallo Sprunggott,
erstmal vielen dank für dein Feedback. Ich bin der Johann und ich habe den Detektionsalgorithmus von Photo Finish entwickelt. Jedes Handy hat tatsächlich eine innere Uhr, die mit einem Quarzkristall funktioniert. Dieser hat natürlich einen gewissen Drift und wird daher regelmäßig übers Internet auf die Atomzeit syncronisiert. Trotzdem müssen die Uhren der Handys natürlich vor der Zeitmessung nochmal miteinander synchronisiert werden, weil die teilweise um mehrere Sekunden unterschiedlich laufen. Bei einer Synchronisierung entsteht ein Fehler von MAXIMAL der hälfte des Pings, d.h. bei unserer WIFI direct syncronisierung von <= 2.5ms . Der host schickt dazu ein Datenpaket und wartet auf die Antwort des clients und misst die Zeit bis dahin. Der Client schreibt auf, wann er das Datenpaket bekommt und definiert diesen Zeitpunkt als "Null". Der host weiß, wann er das Paket los geschickt hat und wann es angekommen ist und nimmt an, das der Client die Uhr genau zum Zeitpunkt dazwischen (halber Ping) gestartet hat, was in den meisten Fällen eine sehr gute Abschätzung ist, da normalerweise das Übertragungsdelay symmetrisch ist. Der Host weiß aber in jedem Fall, dass irgendwo dazwischen die Uhr gestartet wurde und somit ist der Fehler maximal der halbe Ping. Danach ist nur noch der Drift der Uhren relevant (läuft eine schneller als die andere ? ). Dazu ein Zitat von Wikipedia:"https://en.wikipedia.org/wiki/Quartz_clock" :
"that is, a typical quartz clock or wristwatch will gain or lose 15 seconds per 30 days"
Heruntergerechnet auf eine halbstündige Sitzung bedeutet dies ein Fehler von +-0.01 Sekunden.
Übertragungsverluste sind vollkommen irrelevant: entweder, der Host kriegt eine Antwort vom client, dann sind die Uhren syncronisiert, oder er kriegt keine, dann verbindet sich das Handy nicht und eine neuer Verbindungsversuch wird gestartet.
Mit freundlichen Grüßen,
Johann-Lukas Voigt
M.Sc. in Computational Physics
erstmal vielen dank für dein Feedback. Ich bin der Johann und ich habe den Detektionsalgorithmus von Photo Finish entwickelt. Jedes Handy hat tatsächlich eine innere Uhr, die mit einem Quarzkristall funktioniert. Dieser hat natürlich einen gewissen Drift und wird daher regelmäßig übers Internet auf die Atomzeit syncronisiert. Trotzdem müssen die Uhren der Handys natürlich vor der Zeitmessung nochmal miteinander synchronisiert werden, weil die teilweise um mehrere Sekunden unterschiedlich laufen. Bei einer Synchronisierung entsteht ein Fehler von MAXIMAL der hälfte des Pings, d.h. bei unserer WIFI direct syncronisierung von <= 2.5ms . Der host schickt dazu ein Datenpaket und wartet auf die Antwort des clients und misst die Zeit bis dahin. Der Client schreibt auf, wann er das Datenpaket bekommt und definiert diesen Zeitpunkt als "Null". Der host weiß, wann er das Paket los geschickt hat und wann es angekommen ist und nimmt an, das der Client die Uhr genau zum Zeitpunkt dazwischen (halber Ping) gestartet hat, was in den meisten Fällen eine sehr gute Abschätzung ist, da normalerweise das Übertragungsdelay symmetrisch ist. Der Host weiß aber in jedem Fall, dass irgendwo dazwischen die Uhr gestartet wurde und somit ist der Fehler maximal der halbe Ping. Danach ist nur noch der Drift der Uhren relevant (läuft eine schneller als die andere ? ). Dazu ein Zitat von Wikipedia:"https://en.wikipedia.org/wiki/Quartz_clock" :
"that is, a typical quartz clock or wristwatch will gain or lose 15 seconds per 30 days"
Heruntergerechnet auf eine halbstündige Sitzung bedeutet dies ein Fehler von +-0.01 Sekunden.
Übertragungsverluste sind vollkommen irrelevant: entweder, der Host kriegt eine Antwort vom client, dann sind die Uhren syncronisiert, oder er kriegt keine, dann verbindet sich das Handy nicht und eine neuer Verbindungsversuch wird gestartet.
Mit freundlichen Grüßen,
Johann-Lukas Voigt
M.Sc. in Computational Physics
(26.06.2020, 08:03)Sprunggott schrieb:(26.06.2020, 00:02)Kotl schrieb: Hi, leider verstehe ich nicht ganz, was du mit Kalibrierung, Übertragungsverlust und Bildrate meinst.
Meinst du die Übertragung zwischen den Geräten?
Da gibt es keinen zeitlichen Verlust. Die Geräte werden am Anfang auf 0.0025 Sekunden Genauigkeit synchronisiert. Danach arbeitet das System mit den synchronisierten Uhren. Ein kleines delay bei der Übertragung ist also egal.
Die Bildrate beträgt 30fps. Dann wird das Bild vor und das hinter der Zielline genommen und die Zeit gemittelt. Damit wird diese äußerst Höhe Genauigkeit erzielt
Danke für die Anwort. Übertragungsverluste entstehen IMMER (zumindest laut Einstein, und meinen Experimenten per Lidar Laser- Detektion und Zeitwaage). Es wird bestimmt auch keine "Uhr" synchronisiert, sondern eine digitales Programm auf dem Handy. Je weiter diese nun auseinanderstehen, oder sich vom Puffer (Server) entfernen desto höher der Datenverlust beim "Austausch-Transfer" - das Grundproblem aller Messungen (am schnellsten wäre derzeit die neueste generation Glasfaserkabel). Weitere Daten-Verluste bei dem Tracker der Erkennung, der Umsetzung in die Software, der weiteren Übertragung zurück auf das ander Gerät etz. Das Problem Bildrate also nach euch 30 fps (frames pro second - optisch oder digital?!) hatte ja schon Atanvarno schon angedeutet.
Trotz allem wie schon geschrieben eine tolle Idee für den schnellen Gebrauch für jederman und Alternative zu Einzelmessungen per L-Schranke oder L-Taster. Vieleicht gelingt es euch ja auch mal die "Großen" Hersteller neugierig zu machen, und zur Kooperation zu überzeugen.