centos 重试下载(centos7安装第三方软件)

Linux之wget命令

Linux系统中的wget命令,作为不可或缺的下载工具,为用户在命令行环境下获取文件或恢复远程服务器数据提供了便利。它支持HTTP、HTTPS和FTP协议,还支持HTTP代理,能够递归下载HTML页面中的链接,保持原始站点的目录结构,同时遵循Robot Exclusion标准。即使在网络不稳定或带宽有限的情况下,wget也表现出强大的稳定性和恢复能力,能自动重试下载并恢复中断。

若系统未预装wget,用户可以自行安装。命令格式在不同发行版如CentOS、Debian/Ubuntu中略有差异,基本形式为wget [参数] [URL]。在下载单个文件时,会显示下载进度信息,便于跟踪。

为避免动态链接下载的文件名问题,可以使用--limit-rate进行限速下载,以平衡大文件下载与其他任务的需求。使用-c参数,wget可以继续中断的下载,避免重新开始。对于大文件下载,可以使用-b参数进行后台模式,提高效率。

有些情况下,需要通过–user-agent伪装代理名称,或者使用–mirror和-r-A选项进行批量下载,针对FTP下载,可忽略证书问题。若需通过代理服务器下载,需在.wgetrc文件中配置,并在需要时输入密码。

在CentOS环境下编译GreatSQL RPM包

在CentOS环境中编译GreatSQL RPM包的详细步骤如下:

首先,确保在Docker的CentOS 8 x86_64环境中进行:

配置yum源,使用阿里云仓库,便于安装所需工具。

安装必要的编译工具包,如rmp-build。

创建编译RPM所需的目录结构。

从Gitee下载GreatSQL源码包(version 8.0.32-25)并解压至指定目录。

下载greatsql.spec文件和对应的boost源码包(version 1.77)。

从GitHub下载rpcsvc-proto包并编译安装。

然后,进行GreatSQL RPM包的编译准备,包括文件复制和greatsql.spec文件的定制。在编译过程中,可能需要安装缺失的依赖包,并切换到gcc11环境以确保兼容性。

初次编译可能会遇到依赖包缺失,解决完后,通过查看rpmbuild.log文件分析错误并重试。编译包括release和debug两个版本,可能需要一些时间。

编译成功后,可以看到生成的RPM文件,接着在新环境的Docker中测试安装。如果一切顺利,说明GreatSQL RPM包已成功编译。

GreatSQL是一个国内自主开源数据库,专为金融级应用设计,具有高性能、高可靠等特性,可替代MySQL或Percona Server,并提供免费下载和社区支持。

进一步了解GreatSQL,可以访问社区、博客、技术交流群等资源,积极参与讨论和分享。

Linux系统中下载文件的wget命令操作实例

wget是Linux系统中用来下载文件的工具,其功能还是比较多的,能够下载单个文件,也可以分段下载,下面小编将针对wget命令的用法给大家做个实例介绍。

实例:

实例1:下载单个文件

# wget

该命令会下载CentOS 7 ISO文件到用户当前工作目录中。

实例2:续传分段下载文件

总有那么一些场景,当我们开始下载一个大文件时,中途互联网却断开了。那样的话,我们可以使用wget命令的‘-c’选项,让下载从断点续传。

# wget-c

实例3:后台下载文件

我们可以通过在wget命令中使用‘-b’选项来让它在后台下载文件。

linuxtechi@localhost:~$ wget-b

CentOS-7.0-1406-x86_64-DVD.iso

Continuingin background, pid 4505.

Output will be written to‘wget-log’。

正如我们上面所见,下载进程被捕获到用户当前目录中的‘wget-log’文件中。

linuxtechi@localhost:~$ tail-f wget-log

2300K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%48.1K18h5m

2350K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%53.7K18h9m

2400K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%52.1K18h13m

2450K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%58.3K18h14m

2500K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%63.6K18h14m

2550K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%63.4K18h13m

2600K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%72.8K18h10m

2650K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%59.8K18h11m

2700K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%52.8K18h14m

2750K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%58.4K18h15m

2800K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%58.2K18h16m

2850K.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。.0%52.2K18h20m

实例4:限制下载速率

默认情况下,wget命令尝试以全速下载,但是有时候你可能使用的是共享互联网,那么如果你尝试使用wget来下载庞大的文件时,就会把其它用户的网络拖慢。这时,你如果使用‘-limit-rate’选项来限制下载速率,就可以避免这种情况的发生。

#wget--limit-rate=100k

在上例中,下载速率被限制到了100k。

实例5:使用‘-i’选项来下载多个文件

如果你想要使用wget命令来下载多个文件,那么首先要创建一个文本文件,并将所有的URL添加到该文件中。

# cat download-list.txt

url1

url2

url3

url4

现在,发出以下命令吧:

# wget-i download-list.txt

实例6:增加重试次数

我们可以使用‘-tries’选项来增加重试次数。默认情况下,wget命令会重试20次,直到下载成功。

该选项在你下载一个大文件的过程中互联网连接发生问题时十分有用,因为在那种情况下,会增加下载失败的几率。

# wget--tries=75

实例7:使用-o选项来重定向wget日志到文件

我们可以使用‘-o’选项来重定向wget命令的日志到一个日志文件。

#wget-o download.log

上面的命令会在用户当前目录下创建download.log文件。

实例8:下载整个网站用于本地查看

# wget--mirror-p--convert-links-P。/《Local-Folder》 website-url

鉴于

–mirror:开启适用于镜像的选项。

-p:下载所有能正确显示指定HTML网页的全部必要文件。

–convert-links:下载完成后,转换文档中的链接以用于本地查看。

-P。/Local-Folder:保存所有文件和目录到指定的目录。

实例9:下载过程中拒绝文件类型

当你正打算下载整个网站时,我们可以使用‘-reject’选项来强制wget不下载图片。

# wget--reject=png Website-To-Be-Downloaded

实例10:使用wget-Q设置下载配额

我们可以使用‘-Q’选项强制wget命令在下载大小超过特定大小时退出下载。

# wget-Q10m-i download-list.txt

注意,配额不会对单个文件的下载产生影响。所以,如果你指定wget-Q10m ,ls-lR.gz的全部内容都会被下载。这在下载命令行指定的多个URL时也一样。然而,在递归或从一个输入文件检索时,还是值得一用。因此,你可以安全地输入‘wget-Q10m-i download-list.txt’,在超过配额时,下载会退出。

实例11:从密码保护的网站下载文件

# wget--ftp-user=《user-name》--ftp-password=《password》 Download-URL

另外一种指定用户名和密码的方式是在URL中。

任一方法都将你的密码揭露给了那些运行“ps”命令的人。要防止密码被查看到,将它们存���到.wgetrc或.netrc中,并使用“chmod”设置合适的权限来保护这些文件不让其他用户查看到。如果密码真的很重要,不要在它们还在文件里躺着的时候走开,在Wget开始下载后,编辑该文件,或者删除它们。

上面就是Linux下载工具wget命令的使用实例介绍了,从这些例子中我们可以知道,wget的功能和我们通常使用的迅雷差不多,能够实现限速、多个下载等功能。

阅读剩余
THE END