Ho scritto del codice in PHP che restituisce il contenuto html dai domini .edu. Una breve introduzione è dato qui: Errors regarding Web Crawler in PHPRisoluzione degli errori "Il server MySQL è andato via"
Il crawler funziona bene quando il numero di link da sottoporre a scansione sono piccole (qualcosa di circa 40 URL), ma io sono sempre "server MySQL è andato via" errore dopo questo numero.
Sto memorizzando il contenuto html come longtext nelle tabelle MySQL e non capisco perché l'errore arriva dopo almeno 40-50 inserimenti.
Qualsiasi aiuto in questo senso è molto apprezzato.
Si prega di notare che ho già modificato il wait_timeout e il max_allowed_packet per soddisfare le mie richieste e il codice php e ora non so cosa fare. Per favore aiutami in questo senso.
È già presente DbException in php ?? – Rafay
No, questa è una classe Exception che specifichi tu stesso e che passi dalla funzione 'saveData()'. Ho aggiornato la funzione 'saveData' e ho aggiunto una classe personalizzata DbException nella mia risposta per riflettere questo ... – rdlowrey