2011-10-18 18 views
13

Uso la API di geolocalizzazione HTML5 e l'oggetto posizione ha una proprietà "accuratezza" che è un numero che può variare in base all'accuratezza del posizionamento.Quale unità di misura viene utilizzata per determinare la precisione del GPS con l'API geo HTML5?

Fin qui tutto bene. Ma il valore è un'unità non specificata .. a volte è 60, o 1250 o addirittura 18 000.

Ho letto la specifica dell'API di geolocalizzazione W3C [1], parlano di questa proprietà ma non menzionano mai come dovrebbe essere interpretata .

L'unico posto in cui ho trovato una risposta possibile è nel rapporto tecnico del Department of Defense World Geodic System [2]. Si parla di accuratezza in unità di cm con una 1σ (deviazione standard).

Ma questo non mi dice qual è l'unità di accuratezza che la geolocalizzazione API HTML5 mi torna .. Posso solo supporre che è in cm ..

[1] http://dev.w3.org/geo/api/spec-source.html

[2] http://earth-info.nga.mil/GandG/publications/tr8350.2/wgs84fin.pdf

risposta

18

Dal documentation:

l'attributo precisione indica il livello di precisione delle coordinate di latitudine e longitudine. È specificato in metri e deve essere supportato da tutte le implementazioni. Il valore dell'attributo di accuratezza deve essere un numero reale non negativo.

Quindi la sua misura è metri.

+0

Questo si riferisce al raggio? –

+1

Sì, è il raggio. Guarda questa demo (con le mappe di bing): http://blogs.msdn.com/b/ie/archive/2011/02/17/w3c-geolocation-api-in-ie9.aspx – Seybsen

Problemi correlati