请注意,如果 DNS 在您的机器上配置不正确,您需要编辑 “/etc/resolv.conf” 才能使其正常工作...
host ip_address
或
host domain_name
“域名信息搜索器”工具。比 host 更高级... 如果您提供一个主机名作为参数来输出关于该主机的信息,包括它的 IP 地址、主机名和各种其他信息。
例如,要查找关于 “www.amazon.com” 的信息,请输入
dig www.amazon.com
要查找给定 IP 地址的主机名(即反向查找),请使用带有 `-x' 选项的 dig。
dig -x 100.42.30.95
这将查找地址(可能存在也可能不存在)并返回主机的地址,例如,如果那是 “http://slashdot.org” 的地址,那么它将返回“http://slashdot.org”。
(现在是 BW whois)用于从 “whois” 数据库中查找联系信息,这些服务器可能只保存主要的站点。请注意,联系信息很可能被隐藏或限制,因为它经常被黑客和其他寻找方法造成恶意破坏组织的人滥用。
要存档单个网站,请使用 -m 或 --mirror (镜像) 选项。
使用 -nc (no clobber)选项来阻止wget 覆盖您已有的文件。
使用 -c 或 --continue 选项来继续下载 wget 或其他程序未完成的文件。
wget url_for_file
wget 还可以使用标准通配符检索多个文件,与 bash 中使用的类型相同,例如 *、[ ]、?。只需像往常一样使用 wget ,但在 URL 上使用单引号(' ')以防止 bash 扩展通配符。 如果您是从 http 站点检索,则存在复杂情况(见下文...)。
wget --spider --force-html -i bookmarks.html
这将解析文件 bookmarks.html 并检查所有链接是否存在。
高级用法:这是您如何使用 http 下载多个文件(使用通配符...)。
注意:http 不支持使用标准通配符下载,ftp 支持,因此您可以将通配符与 ftp 一起使用,它将正常工作。针对此 http 限制的解决方法如下所示
wget -r -l1 --no-parent -A.gif http://www.website.com[1]
这将递归下载,深度为 1,换句话说,在当前目录中,但不低于该目录。此命令将忽略对父目录的引用,并下载任何以 “.gif” 结尾的文件。如果您想下载例如,任何以 “.pdf” 结尾的文件,则添加一个 -A.pdf 在网站地址之前。只需更改网站地址和要下载的文件类型即可下载其他内容。请注意,执行 -A.gif 与执行 -A “*.gif” 相同(仅双引号,单引号不起作用)。
curl 是另一个远程下载器。这个远程下载器被设计为在没有用户交互的情况下工作,并支持各种协议,可以上传/下载,并且有大量的技巧/解决方法来处理各种事情。它可以访问字典服务器(dict)、ldap服务器、ftp、http、gopher,请参阅手册页获取完整详细信息。
curl -M
对于一般用法,您可以像 wget 一样使用它。您还可以通过使用 -u 选项并输入您的用户名和密码来登录,如下所示
curl -u username:password http://www.placetodownload/file
curl -T file_name ftp://ftp.uploadsite.com
curl -C - -o file http://www.site.com
[1] |