Internet 特定命令

请注意,如果 DNS 在您的机器上配置不正确,您需要编辑 “/etc/resolv.conf” 才能使其正常工作...

host

执行互联网地址的简单查找(使用域名系统,DNS)。只需输入

host ip_address

host domain_name
dig

“域名信息搜索器”工具。比 host 更高级... 如果您提供一个主机名作为参数来输出关于该主机的信息,包括它的 IP 地址、主机名和各种其他信息。

例如,要查找关于 “www.amazon.com” 的信息,请输入

dig www.amazon.com

要查找给定 IP 地址的主机名(即反向查找),请使用带有 `-x' 选项的 dig

dig -x 100.42.30.95

这将查找地址(可能存在也可能不存在)并返回主机的地址,例如,如果那是 “http://slashdot.org” 的地址,那么它将返回“http://slashdot.org”。

dig 接受大量的选项(多到有点过多的程度),请参考手册页获取更多信息。

whois

(现在是 BW whois)用于从 “whois” 数据库中查找联系信息,这些服务器可能只保存主要的站点。请注意,联系信息很可能被隐藏或限制,因为它经常被黑客和其他寻找方法造成恶意破坏组织的人滥用。

wget

(GNU Web get)用于从万维网上下载文件。

要存档单个网站,请使用 -m--mirror (镜像) 选项。

使用 -nc (no clobber)选项来阻止wget 覆盖您已有的文件。

使用 -c--continue 选项来继续下载 wget 或其他程序未完成的文件。

简单用法示例

wget url_for_file

这将简单地从站点获取一个文件。

wget 还可以使用标准通配符检索多个文件,与 bash 中使用的类型相同,例如 *、[ ]、?。只需像往常一样使用 wget ,但在 URL 上使用单引号(' ')以防止 bash 扩展通配符。 如果您是从 http 站点检索,则存在复杂情况(见下文...)。

高级用法示例,(从 wget 手册页中使用)

wget --spider --force-html -i bookmarks.html

这将解析文件 bookmarks.html 并检查所有链接是否存在。

高级用法:这是您如何使用 http 下载多个文件(使用通配符...)。

注意:http 不支持使用标准通配符下载,ftp 支持,因此您可以将通配符与 ftp 一起使用,它将正常工作。针对此 http 限制的解决方法如下所示

wget -r -l1 --no-parent -A.gif http://www.website.com[1]

这将递归下载,深度为 1,换句话说,在当前目录中,但不低于该目录。此命令将忽略对父目录的引用,并下载任何以 “.gif” 结尾的文件。如果您想下载例如,任何以 “.pdf” 结尾的文件,则添加一个 -A.pdf 在网站地址之前。只需更改网站地址和要下载的文件类型即可下载其他内容。请注意,执行 -A.gif 与执行 -A “*.gif” 相同(仅双引号,单引号不起作用)。

wget 有更多选项,请参考手册页的示例部分,此工具的文档非常完善。

替代网站下载器:您可能想尝试像 httrack 这样的替代品。一个完整的 GUI 网站下载器,用 python 编写,可用于 GNU/Linux

curl

curl 是另一个远程下载器。这个远程下载器被设计为在没有用户交互的情况下工作,并支持各种协议,可以上传/下载,并且有大量的技巧/解决方法来处理各种事情。它可以访问字典服务器(dict)、ldap服务器、ftp、http、gopher,请参阅手册页获取完整详细信息。

要访问此命令的完整手册(内容庞大),请输入

curl -M

对于一般用法,您可以像 wget 一样使用它。您还可以通过使用 -u 选项并输入您的用户名和密码来登录,如下所示

curl -u username:password http://www.placetodownload/file

要使用 ftp 上传,您需要使用 -T 选项:

curl -T file_name ftp://ftp.uploadsite.com

要继续下载文件,请使用 -C 选项

curl -C - -o file http://www.site.com

注释

[1]

这种解决通配符限制的方法是从 wget 手册页 采用的(经过少量编辑),有关更多信息,请参见 参考书目 中的 [9]。