Sto cercando di implementare completamento automatico utilizzando elasticsearch pensando che ho capito come si fa ...Tokenizer vs filtri token
Sto cercando di costruire multi-word (frase) suggerimenti utilizzando edge_n_grams di ES, mentre l'indicizzazione dati scansionati.
Qual è la differenza tra un tokenizer
e token_filter
- ho letto la documentazione su questi, ma ancora hanno bisogno di più conoscenza su di loro ....
Per esempio è una cosa token_filter utilizza ES per la ricerca contro l'utente ingresso? È un tokenizer ciò che ES utilizza per creare token? Cos'è un token?
È possibile che ES crei suggerimenti di più parole utilizzando una di queste cose?
molte grazie per una spiegazione chiara e concisa – user3125823
Lavoro con ES 1.7 e produce risultati diversi da quelli suggeriti da questa risposta. Un numero di token e token stessi sono identici tra tokenizer e filter: 't, th, the, q, qu, qui, ...' ma offset e posizioni sono diversi. Filter: '{" token ":" qui "," start_offset ": 4," end_offset ": 9," position ": 2}'. Tokenizer: '{" token ":" qui "," start_offset ": 4," end_offset ": 7," position ": 6}' –