Umiddelbart skulle man ikke mene at et tekst-baseret program som wget kunne være interessant at anvende til at hente filer fra internettet. Skal man lave en hel kopi af en hjemmeside med undersider så er det ikke sjovt at lave bare med en browser. Tilsvarende kan det være fedt at hente en del af en ISO-fil på 600 MB over et par omgange og endda selv kunne bestemme hvor meget båndbredde man vil anvende til dette.
Skal man hente en enkelt fil:
[tyge@hven ~]$ wget http://www.server.dk/FILNAVN
Skal man senere fortsætte en afbrudt hentning af filen, så kan man fortsætte med:
[tyge@hven ~]$ wget -c http://www.server.dk/FILNAVN
Vil man lave et spejl (eng. mirror) af en server med alle hjemmesider, så anvendes følgende.
[tyge@hven ~]$ wget -np --mirror http://www.server.dk/
Vil man begrænse den båndbredde som anvendes på at hente f.eks. en ISO-fil, så tilføj parameteren limit-rate.
[tyge@hven ~]$ wget --limit-rate=RATE http://www.server.dk/fil.iso
Se også ncftp for et ligende program til ftp-servere.