回复【1001】获取 linux常用命令速查手册
Linux零碎中的wget是一个下载文件的工具,它用在命令行下。对于Linux用户是必不可少的工具,咱们常常要下载一些软件或从近程服务器复原备份到本地服务器。wget反对HTTP,HTTPS和FTP协定,能够应用HTTP代理。wget 能够跟踪HTML页面上的链接顺次下载来创立近程服务器的本地版本,齐全重建原始站点的目录构造。这又常被称作”递归下载”。在递归下载的时候,wget 遵循Robot Exclusion规范(/robots.txt). wget能够在下载的同时,将链接转换成指向本地文件,以不便离线浏览。
wget 十分稳固,它在带宽很窄的状况下和不稳固网络中有很强的适应性.如果是因为网络的起因下载失败,wget会一直的尝试,直到整个文件下载结束。如果是服务器打断下载过程,它会再次联到服务器上从进行的中央持续下载。这对从那些限定了链接工夫的服务器上下载大文件十分有用。
装置形式有些最小装置的Linux零碎可能没有装置上wget命令,能够自行装置CentOS> yum install wget -yDebian/Ubuntusudo apt-get install -y wget命令格局wget [参数][URL]
命令参数启动参数-V, –version 显示wget的版本后退出-h, –help 打印语法帮忙-b, –background 启动后转入后盾执行-e, –execute=COMMAND 执行’.wgetrc’格局的命令,wgetrc格局参见/etc/wgetrc或~/.wgetrc记录和输出文件参数-o, –output-file=FILE 把记录写到FILE文件中-a, –append-output=FILE 把记录追加到FILE文件中-d, –debug 打印调试输入-q, –quiet 宁静模式(没有输入)-v, –verbose 简短模式(这是缺省设置)-nv, –non-verbose 关掉简短模式,但不是宁静模式-i, –input-file=FILE 下载在FILE文件中呈现的URLs-F, –force-html 把输出文件当作HTML格式文件看待-B, –base=URL 将URL作为在-F -i参数指定的文件中呈现的绝对链接的前缀–sslcertfile=FILE 可选客户端证书 –sslcertkey=KEYFILE 可选客户端证书的KEYFILE –egd-file=FILE 指定EGD socket的文件名下载参数-bind-address=ADDRESS 指定本地应用地址(主机名或IP,当本地有多个IP或名字时应用)-t, –tries=NUMBER 设定最大尝试链接次数(0 示意无限度).-O –output-document=FILE 把文档写到FILE文件中-nc, –no-clobber 不要笼罩存在的文件或应用.#前缀-c, –continue 接着下载没下载完的文件-progress=TYPE 设定过程条标记-N, –timestamping 不要从新下载文件除非比本地文件新-S, –server-response 打印服务器的回应-T, –timeout=SECONDS 设定响应超时的秒数-w, –wait=SECONDS 两次尝试之间距离SECONDS秒-waitretry=SECONDS 在从新链接之间期待1…SECONDS秒-random-wait 在下载之间期待0…2*WAIT秒-Y, -proxy=on/off 关上或敞开代理-Q, -quota=NUMBER 设置下载的容量限度-limit-rate=RATE 限定下载速率目录参数-nd –no-directories 不创立目录-x, –force-directories 强制创立目录-nH, –no-host-directories 不创立主机目录-P, –directory-prefix=PREFIX 将文件保留到目录 PREFIX/…-cut-dirs=NUMBER 疏忽 NUMBER层近程目录HTTP 选项参数-http-user=USER 设定HTTP用户名为 USER.-http-passwd=PASS 设定http明码为 PASS-C, –cache=on/off 容许/不容许服务器端的数据缓存 (个别状况下容许)-E, –html-extension 将所有text/html文档以.html扩展名保留-ignore-length 疏忽 ‘Content-Length’头域-header=STRING 在headers中插入字符串 STRING-proxy-user=USER 设定代理的用户名为 USERproxy-passwd=PASS 设定代理的明码为 PASSreferer=URL 在HTTP申请中蕴含 ‘Referer: URL’头-s, –save-headers 保留HTTP头到文件-U, –user-agent=AGENT 设定代理的名称为 AGENT而不是 Wget/VERSIONno-http-keep-alive 敞开 HTTP流动链接 (永远链接)cookies=off 不应用 cookiesload-cookies=FILE 在开始会话前从文件 FILE中加载cookiesave-cookies=FILE 在会话完结后将 cookies保留到 FILE文件中FTP 选项参数-nr, –dont-remove-listing 不移走 ‘.listing’文件-g, –glob=on/off 关上或敞开文件名的 globbing机制passive-ftp 应用被动传输模式 (缺省值).active-ftp 应用被动传输模式retr-symlinks 在递归的时候,将链接指向文件(而不是目录)递归下载参数-r, –recursive 递归下载--慎用!-l, –level=NUMBER 最大递归深度 (inf 或 0 代表无穷)-delete-after 在下载结束后部分删除文件-k, –convert-links 转换非绝对链接为绝对链接-K, –backup-converted 在转换文件X之前,将之备份为 X.orig-m, –mirror 等价于 -r -N -l inf -nr-p, –page-requisites 下载显示HTML文件的所有图片递归下载中的蕴含和不蕴含(accept/reject):-A, –accept=LIST 分号分隔的被承受扩展名的列表-R, –reject=LIST 分号分隔的不被承受的扩展名的列表-D, –domains=LIST 分号分隔的被承受域的列表-exclude-domains=LIST 分号分隔的不被承受的域的列表-follow-ftp 跟踪HTML文档中的FTP链接-follow-tags=LIST 分号分隔的被跟踪的HTML标签的列表-G, –ignore-tags=LIST 分号分隔的被疏忽的HTML标签的列表-H, –span-hosts 当递归时转到内部主机-L, –relative 仅仅跟踪绝对链接-I, –include-directories=LIST 容许目录的列表-X, –exclude-directories=LIST 不被蕴含目录的列表-np, –no-parent 不要追溯到父目录应用wget下载单个文件> wget http://nginx.org/download/nginx-1.16.1.tar.gz
...