[已废置]OMV+KVM+docker(nas+软路由等整合教程)更新aira2+webui过程
本帖最后由 塔奇克马 于 2018-10-12 02:21 编辑简介: 不同于esxi,这个是在nas中安装虚拟机并且性能不会差,多数都可以装进来只要你想......软件全免费,另外群晖也可以这么干.但是他不免费所以就算了 前言: Esxi用的不爽,CPU直通使用比较苛刻而且便宜的工控板是没有VT-d的,所以我想换个方案,随便搜索我知道了OMV(openmediavault),虽然在手机app等方便比不上群晖但是在于免费,不需要担心破解造成的麻烦,同时在nas系统中也是比较易用那一类的,debian应用也很多.于是本着折腾的心态就开始了: OMV上安装KVM+openvswitch来达到Esxi的功能并且virtio-net半虚拟化方案降低性能损耗可以接近实体网卡的程度.而OMV安装dockerUI可以使用容器来丰富软件.比如我可以把owncloud镜像脱进来然后映射到openvswitch虚拟网络中.得到和esxi下同样的效果而且性能比esxi完全虚拟化性能更好. Linux新一点的内核基本都支持virtio 声明:本教程只是一个集合,多数都来自他人,楼主只是整理并且把坑人的标出来.如果出现问题请善用搜索.不要对楼主有什么期待,楼主是半桶水. 基本构成:http://i1.buimg.com/601980/2523f36d5a714231.png注:OVS代表虚拟交换机 涉及到的软件Openmediavault (nas)Kvm (虚拟机)Docker (容器和虚拟机功能类似)Openvswith (虚拟交换机) 小工具Pipework(用于将docker容器连接到局域网中获得独立IP) 远程控制工具Winscp (ssh文件传输管理工具)Putty(ssh命令行工具) Ubuntu (一个图形化linux操作系统)virtual machine manager (kvm远程管理工具) 其他L7rounter (网吧控流软路由系统,网吧版选择普通直接注册下就能免费用了)LEDE_openwrt_x86(常见的软路由)Dnsmasq(dhcp工具.给nas增加dhcp功能)Koolproxy(去广告用的) 索引2楼:安装Openmediavault以及第三方扩展,docker等3楼:安装KVM openvswitch pipework等4楼:构成虚拟机网络,在KVM安装各种软路由 碧海威 LEDE等.5楼:在Openmediavault中安装dnsmasq和koolproxy等,以及让OMV成为网关 包转发服务器6楼:dorcker使用7楼:注意事项14楼:KVM安装黑群晖需要的驱动模块/引导镜像/注意事项等.(测试6.x不能挂载nfs所以只能作罢,建议黑群5.2可以直接全套virtio磁盘)
20楼:安装aira2+webui过程.
本帖最后由 塔奇克马 于 2017-7-24 19:10 编辑
准备工作:
首先准备一块双网卡整合主板只要支持vt-x就可以,安装有24G ssd(小点也可以装主系统应该够用了.)机械硬盘等随意了....
教程使用配置 1037U RTL双千兆网卡
Windows下准备软件 winscp putty
Linux下准备软件virtual machine manager
比如乌班图直接在软件商店里搜索这个看到 虚拟系统管理器 安装就行了
http://i1.buimg.com/601980/9e941ce8aeed98d6.png
首先去
https://sourceforge.net/projects/openmediavault/files/
下载最新的镜像,我下载的是3.0.82 然后使用工具刻录到U盘上,我用的是Rufus工具
http://i1.buimg.com/601980/44477074d08c18cb.png
安装过程省略,记得设置root密码,这个是用来登录SSH用的,
网页端部分是另一个账号和密码 admin/openmediavault
你应该为了调试方便两个接口都连接在路由器上,
安装完毕会显示IP地址,直接登录就可以了.
现在添加第三方插件omvextra
然后选择右侧插件,看到上传两个字没有?
http://i1.buimg.com/601980/e1cf8b33436db00e.png
可以去
https://bintray.com/openmediavault-plugin-developers/erasmus/openmediavault-omvextrasorg
寻找源,我下载的地址是
https://bintray.com/openmediavault-plugin-developers/erasmus/download_file?file_path=pool%2Fmain%2Fo%2Fopenmediavault-omvextrasorg%2Fopenmediavault-omvextrasorg_3.0.10_all.deb
下载后点上传,上传到OMV里
这个时候你会发现插件更新多了很多新东西,拖到最下面
http://i1.buimg.com/601980/896cea5c2ff16565.png
Omvextrasorg打勾点击安装
这个时候发现右侧多出了 Omv-extra选栏里面就有Docker可选,选择docker点更新之后在插件选栏里安装它.或者放置看你需求
http://i1.buimg.com/601980/46176d16fa1115cc.png
不过国内docker太慢了.建议换源.换源的方法如下:
用winscp等ssh登入nas然后
修改Docker配置文件/etc/default/docker如下:
DOCKER_OPTS="--registry-mirror=http://aad0405c.m.daocloud.io"
如图
http://i1.buimg.com/601980/8ad5bca14921943e.png
Docke安装r部分完毕.
本帖最后由 塔奇克马 于 2017-7-24 19:20 编辑
下面开始安装kvm openvswitch等需要用到 SSH工具putty
用它连接你的nas.
首先执行,
apt-get upgrade
#更新所有软件包到最新 可以不更新
apt-get update
#更新软件包列表.
apt-get install openvswitch-switch
#用于安装openvswitch虚拟交换机
apt-get install git
git clone https://github.com/jpetazzo/pipework.git
sudo cp -rp pipework/pipework /usr/local/bin/
sudo apt-get install iputils-arping bridge-utils
#用于安装pipework工具用来将docker容器与虚拟交换机绑定获得单独的IP地址方便访问
sudo apt-get install qemu-kvm qemu uml-utilities libvirt-bin libvirt-dev virtinst
#用于安装kvm qemu libvirt(管理程序)等相关组件
modprobe kvm_intel #or kvm_amd
#加载内核模块
systemctl enable libvirtd.service
#将kvm管理工具到添加开机启动服务
#但是这个时候kvm是不支持远程管理的,所以还需要做一些修改,这个时候拿出你的winscp工具,如下配置:
以下是别人的稍加修改.
vim /etc/libvirt/libvirtd.conf:
listen_tls = 0 #禁用tls登录
listen_tcp = 1 #启用tcp方式登录
tcp_port = "16509" #tcp端口16509
listen_addr = "0.0.0.0"
unix_sock_group = "libvirtd" #这部分虽然不同但是不用修改.其他部分也不太需要只要去掉注释就可以
unix_sock_rw_perms = "0770"
auth_unix_ro = "none"
auth_unix_rw = "none"
auth_tcp = "none" #TCP不使用认证
max_clients = 1024 #最大总的连接客户数1024
min_workers = 50 #libvirtd启动时,初始的工作线程数目
max_workers = 200 #同上,最大数目
max_requests = 1000 #最大同时支持的RPC调用,必须大于等于max_workers
max_client_requests = 200 #每个客户端支持的最大连接数
同时修改libvirtd的配置文件:
vim /etc/default/libvirtd
# Start libvirtd to handle qemu/kvm:
start_libvirtd="yes"
# options passed to libvirtd, add "-l" to listen on tcp
libvirtd_opts="-d -l --config /etc/libvirt/libvirtd.conf"
然后ssh中重启服务器
Service libvirtd restart
如果提示出错重启下就可以了
netstat -anpt
可以发现16509端口监听中,这说明没问题
http://i1.buimg.com/601980/d51455e668dc2d41.png
此时在乌班图中打开virtual machine manager
选择登录kvm
步骤如下:上方横条点文件-添加链接
http://i1.buimg.com/601980/872c3ba99a15d6d8.png
差不多这样填写
http://i1.buimg.com/601980/a5c86dbd1db5f3db.png
直接就可以连接了,你可以建立虚拟机,但是对linux来说界面这东西,只是一个辅助工具,解决问题很多时候依然要命令行.
不过这么弄并不安全,但是比较方便,如果为了安全需要生成证书什么的,自己研究吧.
到此 kvm已经安装完毕.下面是配置虚拟交换机部分
本帖最后由 塔奇克马 于 2017-7-24 22:28 编辑
首先用
ip a
命令查看当前网络状态
2: eth0: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000 link/ether 00:0c:29:dd:87:0b brd ff:ff:ff:ff:ff:ff3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000 link/ether 00:0c:29:dd:87:15 brd ff:ff:ff:ff:ff:ff inet 192.168.2.24/24 brd 192.168.2.255 scope global eth1 valid_lft forever preferred_lft forever
可以看到如上信息.你会发现有一个实体网卡是关闭的,这个一会再说.
先建立两个虚拟交换机类似于esxi的vswitch.
ovs-vsctl add-br wan
ovs-vsctl add-br lan
#建立了两个虚拟交换机一个叫wan一个叫lan无所谓名称随你.这个是接口名称同时也是交换机名称
ovs-vsctl show
显示你已经建立的虚拟交换机,效果如图
http://i1.buimg.com/601980/05f2743036c5eef3.png
再次输入,查看当前网口状态
Ip a
http://i1.buimg.com/601980/9802874b6c52ad6d.png
多了两个虚拟交换机接口,但是都是关闭状态,这个时候需要命令把连同eth0都打开
ip link set eth0 up
ip link set wan up
ip link set lan up
再次ip a 可以查看状态
http://i1.buimg.com/601980/62a10c711b8bb759.png
下一步要把两个网卡分别”链接”在这两个交换机上成为虚拟交换机的网口.
ip addr add 192.168.5.3/24 dev lan
#设定你nas的IP地址,,设定这个以后才可以实体网卡链接虚拟交换机后继续访问nas.(交换机口是没有IP地址的.)
ovs-vsctl add-port lan eth1
#让你的网卡eth1成为lan交换机的入口,此时eth1已经废了,不能访问.需要如上设定IP访问,不用说请改成同一网段,继续工作.
ip -f inet addr delete 192.168.2.24/24 dev eth1
#为了防止出现问题,需要清除实体网卡eth1的IP
#如法炮制,将eth0也变成虚拟交换机wan的入口
ovs-vsctl add-port wan eth0
http://i1.buimg.com/601980/05f2743036c5eef3.png
这里有些东西不会被保存,开机后就会丢失,比如网卡eh0或者wan lan交换机接口重启就down状态了 .
所以需要编辑开机脚本,总之能弄在开机脚本就弄到开机脚本.
使用winscp编辑
/etc/rc.local
这个文件
以上
Nas内部虚拟网络已经构成完毕,只剩下虚拟机或者docker容器接入了.
# net-config
sudo /bin/ip addr add 192.168.2.3/24 dev lan
ip link set wan up
ip link set lan up
ip link set eth1 up
route add default gw 192.168.2.1 lan
ip -f inet addr delete 192.168.2.211/24 dev eth0</font>
楼主的网络部分可以参考,你可以发现那些更改不会被保存.参考上面例子修改自己的开机脚本
之所以sleep因为ovs交换机启动比较慢,如果脚本先运行会发生找不到网口的情况,所以脚本的运行必须延后一些.
以上 虚拟机交换机配置完毕
----------------------------------------------------------------------------------
http://i1.buimg.com/601980/1ee5f66441430e33.png
编辑乌班图的网络连接以便登录nas网址改成同一网段一会要用到.
继续ssh命令,现在开始建立你的kvm虚拟机
以安装L7rounter为例;
先下载它的网吧版L7_2016RTst1229.x86_64_ISO_Install.iso
打开乌班图上的管理工具,右键你的KVM详情
http://i1.buimg.com/601980/6994a02c71912a0f.png
记住这个地址,把iso通过winscp上传到这个目录中.当然你也可以选择其他目录
以下是建立基本的框架
virt-install --os-variant list
http://i1.buimg.com/601980/61e26b2eed032e11.png
#先确认系统对应代号,确认系统兼容性
#比如L7Rounter 我选择 virtio26 一会要用到
Cd /var/lib/libvirt/images
qemu-img create L7Rounter.img 0.5G
#我先建立了一个虚拟系统文件名叫L7Rounter.img 大小0.5G,下面要用到
sudo virt-install -n L7Rounter -r 512 --vcpus 1 \
--os-type linux \
--os-variant virtio26 \
--network bridge=lan,virtualport_type='openvswitch' \
--network bridge=wan,virtualport_type='openvswitch' \
--hvm --virt-type kvm \
--disk size=8,path=/var/lib/libvirt/images/L7Rounter.img \
--noautoconsole \
--cdrom=/var/lib/libvirt/images/L7_2016RTst1229.x86_64_ISO_Install.iso
这里建立了一个虚拟机 内存512M 单CPU linux virtio26版本大于2.6,使用
建立两个网卡分别链接虚拟交换机接口wan和 lan ,使用openvswitch类型
/var/lib/libvirt/images/L7Rounter.img文件作为虚拟机硬盘,等等
运行完后你发现乌班图下的虚拟机系统管理器已经可以看到你新建立的系统了
打开却发现黑屏,不用着急设置一下就好
点大叹号,添加硬件
http://i1.buimg.com/601980/9a5ab64f810304c0.png
选择Graphics/spice服务器地址所有接口点击完成,关闭虚拟机,还需要一些设置
比如开机cdrom启动/cdrom选择那个光盘镜像/disk硬盘总线换成IDE/
请根据自己需求来.
设置碧海威的IP地址
http://i1.buimg.com/601980/c9365a3fb74d3e78.png
就可以登陆了
登录后设置广域网 /dhcp一键控流 什么的就不介绍了.很简单
不过配置后其他正常,dhcp失效.这没什么影响,可以用其他kvm或者nas本体来做DHCP服务器.
-----------------------
openwrt_lede安装和上面一样,稍有不同需要直接镜像启动
先去lede官网
Index of /releases/17.01.2/targets/x86/64/combined-squashfs.img
下载下来上传到nas那个kvm磁盘目录改成你喜欢的名字比如
lede.img
然后
cd /var/lib/libvirt/images
qemu-img resize lede.img +0.2G#这个命令是把镜像扩大一定的容量,因为默认下载下来的镜像是在是太小了
然后启动参数和上面的差不多
sudo virt-install -n lede -r 256 --vcpus 1 \
--os-type linux \
--os-variant ubuntusaucy \
--network bridge=lan,virtualport_type='openvswitch' \
--network bridge=wan,virtualport_type='openvswitch' \
--hvm --virt-type kvm \
--disk size=8,path=/var/lib/libvirt/images/lede.img \
--noautoconsole \
--boot hd
这里稍有不同,内存改成了256M足够了,启动方式改成了硬盘.如果启动不了改成IDE模式就可以了.
第一个网卡一般是内网用的可以登录软路由所以连接到lan虚拟交换机上
当然如果不作为主路由而是作为单臂转发路由那么第二个网卡参数就可以删掉了.
本帖最后由 塔奇克马 于 2017-7-24 22:50 编辑
如果你觉得用nas转发麻烦,那么直接在KVM中装个lede单网卡就可以了
装完各种东西,添加转发跳点
route add default gw [你的主路由地址]
就可以,添加到lede启动中--
位置 系统-启动项-下拉
http://i4.piimg.com/601980/3d7d810da5d06e01.png
相对来说,我更加支持lede作为主路由的方案,这个对于virtio-net支持较好,另外对于性能的消耗也不是很高.
如果你需要让nas转发包那么你需要修改一下配置文件让他支持包转发,楼主直接用命令不行,所以只能改配置文件了.
参考这个文章中
http://brezular.com/2013/12/16/openvswitch-installation-on-debian/
这句
11. Enable IPv4 and IPV6 packets forwarding
We need to enable ipv4 and ipv6 packets forwarding between interfaces. These commands enable ipv4 and ipv6 forwarding on the fly.$ sudo sysctl -w net.ipv4.ip_forward=1
$ sudo sysctl -w net.ipv6.conf.all.forwarding=1
To enable forwarding at boot, edit /etc/sysctl.conf as root and uncomment the following lines.
net.ipv4.ip_forward = 1
net.ipv6.conf.all.forwarding=1
修改你的配置文件:
http://i4.piimg.com/601980/dbe144f23e9000f3.png
如图这样
--------------
但是
这样还不够,包发到哪里是个问题
所以需要你配置路由跳点
我的主路由地址是192.168.5.1
那么我就用如下命令
route add default gw 192.168.5.1 lan
这个命令需要加入到你的启动文件中,不然重启就没了.
----------------------------------------------
因为楼主只要去广告功能而已,所以不需要单独在KVM中安装openwrt路由了,这里介绍下安装DHCP服务,
apt-get install dnsmasq
systemctl enable dnsmasq
#设定开机启动这个服务
之后编辑配置文件在OMV
/etc/dnsmasq.conf
listen-address=192.168.5.3
#这里是你dhcp服务器地址也就是你nas的管理入口地址
dhcp-range=192.168.5.20,192.168.5.250,12h
#这是分配地址池范围
dhcp-option=3,192.168.5.3
#设定网关地址,如果你要用nas过滤广告的话 那么你需要指向nas的管理口地址.如果不需要那么指向主路由就可以了 比如192.168.5.1
dhcp-option=option:dns-server,114.114.114.114,8.8.4.4
#配置文件中没有这一行所以需要添加上去.分配dns
systemctl reload dnsmasq
#重新加载应该就能正常工作了
---------------------------------------------
http://koolshare.cn/thread-81171-1-1.html
首先按照这个教程把他装到一个地方,随意但是文件目录结构不能改变
楼主是装在/opt/koolproxy 目录里
apt-get install ipset
#需要这个来弄成白名单
route add default gw 192.168.2.1
# koolproxy
/opt/koolproxy/koolproxy -p 3000 -b /opt/koolproxy/data -d
iptables-t nat -N KOOLPROXY
iptables -t nat -N KOOLPROXY_HTTP
iptables -t nat -N KOOLPROXY_HTTPS
ipset restore -f /opt/koolproxy/data/white_list.txt
iptables -t nat -A KOOLPROXY -m set --match-set white_list dst -j RETURN
#上行为https+http过滤,如要启用请去掉注释,110.110.110.110可下载证书
iptables -t nat -A KOOLPROXY_HTTP -p tcp -m tcp --dport 80 -j REDIRECT --to-ports 3000
iptables -t nat -A KOOLPROXY -p tcp -d 110.110.110.110 --dport 80 -j REDIRECT --to-port 3000
#iptables -t nat -A KOOLPROXY_HTTPS -p tcp -m multiport --dports 80,443 -j REDIRECT --to-ports 3000
iptables -t nat -A KOOLPROXY -p tcp -j KOOLPROXY_HTTP
iptables -t nat -A PREROUTING -p tcp -j KOOLPROXY
exit 0
参照这个来添加开机启动
本帖最后由 塔奇克马 于 2017-7-24 22:06 编辑
dorcker安装较慢,装完换源之后就爽多了
dorcker hub去寻找镜像
比如打入 owncloud
(ovm3.0是不带owncloud插件的,但是有dorcker的话就没什么可怕的了.)
https://hub.docker.com/_/owncloud/
发现标题名为owncloud然后看hub里的说明都写的什么请认真阅读
左侧栏docker-pull image-输入你查找到的docker pull command中 pull后面的字复制进去
http://i4.piimg.com/601980/3409d1783069efe1.png
点击开始就可以把镜像抓到本机里了.
然后点run image
这里使用一种普遍的做法 桥接,容器是没有IP地址的只能通过映射的端口访问
这里我把容器的80端口映射到nas的8080端口,别忘记点击右侧加号.
http://i4.piimg.com/601980/42c655bcf2f1ff73.png
如果你希望引用外部目录那么需要做另外设置
http://i4.piimg.com/601980/01e0e3d92b344802.png
如图host path就是nas主机的目录
而container path 顾名思义就是容器目录了
通过这样的设置可以把owncloud上传的照片什么的直接传到主机里,当然楼主还没这么做过(
别忘记点击加号
.如上 桥接的容器就运行完成.
下面方法是带有独立IP的容器,可以在局域网直接访问
首先 run image
网络模式(network mode)中选择none
然后在命令行中输入
dorcker ps
查看当前容器的ID,
pipework lan a76731bd2ede 192.168.4.4/24
如图
http://i4.piimg.com/601980/f91ad6449e6af61f.png
具体说明
pipework [虚拟交换机的名称/接口名] [容器ID] [你想容器独立IP]
基本就可以了
如果出现
Warning: arping not found; interface may not be immediately reachable
错误那么在确认一次就行了.
这个状态是不保存的
所以需要你加入启动列表
-------------------------------------------
注意:
并非所有容器都能很好的运行 ,如果你发现容器的状态总是restarting那么这个容器就不能运行
或者
docker exec -it [容器ID] [容器上写的命令行]
这个命令运行时候提示错误.就说明不行.
例如
docker exec -ita76731bd2ede /bin/sh
提示restarting,信息永远重启不完,基本就可以判定废了.
顺便
带有控制网卡机制的程序也是不能运行,比如openwrt我没有成功,sub错误.
本帖最后由 塔奇克马 于 2017-7-24 22:03 编辑
启动文件
/etc/rc.local
的编排建议
对于
网络那部分建议排在最前边
因为一旦命令失误中途就会退出执行
如果你把其他放在前面出错,则网络命令 ip link set lan up 啥的好没运行就中断了,导致你无法连接nas修正错误,这就非常囧了.
<div><div>#
# rc.local
#
# This script is executed at the end of each multiuser runlevel.
# Make sure that the script will "exit 0" on success or any other
# value on error.
#
# In order to enable or disable this script just change the execution
# bits.
#
# By default this script does nothing.
sleep 30
# net-config
sudo /bin/ip addr add 192.168.2.3/24 dev lan
ip link set wan up
ip link set lan up
ip link set eth1 up
route add default gw 192.168.2.1 lan
ip -f inet addr delete 192.168.2.211/24 dev eth0
#这里下面放其他部分
#下面是末尾
exit 0
-----------------------------
楼主这软路由有没有测试过性能如何?会不会一开限流客户端网络就一卡一卡的,或者根本没多少限流效果? 本帖最后由 塔奇克马 于 2017-7-24 20:59 编辑
糊状物 发表于 2017-7-24 20:39
楼主这软路由有没有测试过性能如何?会不会一开限流客户端网络就一卡一卡的,或者根本没多少限流效果? ...
esxi里我测试过,没问题的.反正免费你自己下载下来放vmare虚拟机里试试就知. 本帖最后由 塔奇克马 于 2017-7-24 20:56 编辑
糊状物 发表于 2017-7-24 20:39
楼主这软路由有没有测试过性能如何?会不会一开限流客户端网络就一卡一卡的,或者根本没多少限流效果? ...
卡是因为丢包,这是一键控流的效果,但是一键控流设置并非最优选.100M宽带 出口设置的128000 应该也不最好的.
http://i1.buimg.com/601980/135461820e3cfab1.png6个斗鱼直播斗鱼不卡+IDM下载,以及CPU占用.另外我不知道ping包优先级,所以只能看看.
QOS可以换的别的.无所谓的.
来一发 openvswitch with dpdk 把标题的OVM改成OMV吧,不然以后又搜不到了 S1会员 发表于 2017-7-24 22:00
把标题的OVM改成OMV吧,不然以后又搜不到了
好的 本帖最后由 塔奇克马 于 2017-7-28 16:28 编辑
想了想还是发上来把,以免走弯路.
你想要黑群晖的一些功能,那么也简单.
在kvm装黑群就可以,然后通过网络驱动器映射到群晖里,这样黑群晖在也不怕升级资料找不回来了.但是有个问题1.02b没有virtio的驱动,效率低点,那么你可以尝试编译,参照
https://xpenology.com/forum/topi ... in-jun-loader-102a/
当然你也可以用我编译修改的现成的,
https://pan.baidu.com/s/1dFOqdfr
密码:ufis
以下是注意事项,原文没写.这里补齐.
你需要编译的模块
virtio virtio_ring virtio_pci virtio_blkvirtio_scsivirtio_net
顺序不可颠倒,因为virtio virtio_ring 是net的依赖,所以必须保证virtio和virtio_ring先启动,
如图:
http://i2.tiimg.com/601980/a23ab8d24cb9c306.png
这些模块你也在网盘中也可以找到
另外chroot很难下载,那么网盘也提供了安装包.
Virtio_scsi不知道怎么用,xml试过不好使,所以不好测试.谁懂得可以测试下.
Img作为第一个磁盘启动,然后在建立一个sata磁盘需要大概至少10G,建立命令就按照上面给的就可以.
有趣 马克一记看看以后能不能用上 一脸懵逼地进来,一脸懵逼地出去 实
实用
收藏 谢谢大大发帖
—— 来自 ZUK Z2131, Android 6.0.1上的 S1Next-鹅版 v1.2.1 马克
—— 来自 HUAWEI PLK-CL00, Android 6.0上的 S1Next-鹅版 v1.2.1 本帖最后由 塔奇克马 于 2017-8-5 15:16 编辑
感觉omv-downloaner比较简陋,这里介绍了ovm下aria2+webui的简单安装方法.
aria2因为原本是命令行操作,所以为了简化就需要一个图形化管理平台aria2+webui
首先从安装aria2+webui开始
需要环境
必须 已经安装docker
非必需 openswitchpipework
首先呢去hub.docker.com去寻找aria2-webui镜像
首先在OMV中插件选择docker点击pull-docker,把你查到到镜像软件源填入
楼主填入的是:”timonier/webui-aria2”
http://i1.bvimg.com/601980/9389072f9109e350.png
点击开始,等待镜像下载完毕,就可以了
选择你拖下来的镜像,点击run image
设定network mode-none
这里说明下,如果你没有配置虚拟交换机那么选择桥接 端口映射就可以直接访问了,下面的几行就不需要做了
之后点击保存.
查看下docker容器状态,你可以看到up ***** runing..等说明运行正常
之后ssh登录omv输入命令
docker ps
把ID记录下来然后运行命令
pipework [虚拟交换机名称/接口名字] [容器ID] [你想要设定的内网IP地址]/24
例如
pipework lan f82fb7fe4867 192.168.4.4/24
这样就可以直接访问了,但是你发现RPC错位,这是必然的,因为没有aria2本体.
下面开始安装aria2本体
继续ssh-omv
输入命令
apt-get install aria2
直接安装就好.
楼主查到网上说这个直接安装的aria2阉割了bt,楼主试了下bt能正常用.
安装后,去隔壁楼把配置文件直接复制下来稍微修改;
比如楼主这样
#用户名
#rpc-user=user
#密码
#rpc-passwd=passwd
#设置加密的密钥
#rpc-secret=adgjl
#允许rpc
enable-rpc=true
#允许所有来源, web界面跨域权限需要
rpc-allow-origin-all=true
#是否启用https加密,启用之后要设置公钥,私钥的文件路径
#rpc-secure=true
#启用加密设置公钥
#rpc-certificate=/home/name/.config/aria2/example.crt
#启用加密设置私钥
#rpc-private-key=/home/name/.config/aria2/example.key
#允许外部访问,false的话只监听本地端口
rpc-listen-all=true
#RPC端口, 仅当默认端口被占用时修改
#rpc-listen-port=6800
#最大同时下载数(任务数), 路由建议值: 3
max-concurrent-downloads=5
#断点续传
continue=true
#同服务器连接数
max-connection-per-server=5
#最小文件分片大小, 下载线程数上限取决于能分出多少片, 对于小文件重要
min-split-size=10M
#单文件最大线程数, 路由建议值: 5
split=10
#下载速度限制
max-overall-download-limit=0
#单文件速度限制
max-download-limit=0
#上传速度限制
max-overall-upload-limit=0
#单文件速度限制
max-upload-limit=0
#断开速度过慢的连接
#lowest-speed-limit=0
#验证用,需要1.16.1之后的release版本
#referer=*
#文件保存路径, 默认为当前启动位置
dir=/srv/dev-disk-by-id-usb-Teclast_CoolFlash_USB3.0/nfs/aira2c/
#文件缓存, 使用内置的文件缓存, 如果你不相信Linux内核文件缓存和磁盘内置缓存时使用, 需要1.16及以上版本
#disk-cache=0
#另一种Linux文件缓存方式, 使用前确保您使用的内核支持此选项, 需要1.15及以上版本(?)
#enable-mmap=true
#文件预分配, 能有效降低文件碎片, 提高磁盘性能. 缺点是预分配时间较长
#所需时间 none < falloc ? trunc << prealloc, falloc和trunc需要文件系统和内核支持
file-allocation=falloc
#不进行证书校验
check-certificate=false
# 禁用IPv6, 默认:false
disable-ipv6=true
## 进度保存相关 ##
# 从会话文件中读取下载任务
input-file=/root/aria2c/aria2.session
# 在Aria2退出时保存`错误/未完成`的下载任务到会话文件
save-session=/root/aria2c/aria2.session
# 定时保存会话, 0为退出时才保存, 需1.16.1以上版本, 默认:0
#save-session-interval=60
按照自己需求进行更改,这里要提一下
omv挂载的存储设备都在/srv/下,所以你想下载文件到这里就在这里找建立文件夹,然后把位置写入配置文件中”dir=/srv/************”
这里楼主把配置文件和下载任务文件放在了root/aria2c/下面,需要根据自身情况设定.
ssh中运行
aria2c --conf-path=/root/aria2c/aria2.conf
看看运行conf对不对,如果你用了我的配置文件那么会提示aria2.session不存在.直接winscp建立一个空文件就好.
继续运行上面的命令测试如果无误,试着打开webui连接aria2(omvIP默认6800),看看是否正常.如果正常就可以添加到rc.local中
范例如下;
#你之前添加的启动命令
# 桥接docker
pipework lan f82fb7fe4867 192.168.4.4/24
# 启动aria2c
aria2c --conf-path=/root/aria2c/aria2.conf -D
exit 0
以上aria2配置就全部结束了,管理端和服务端全部都放在omv中. 收藏 谢谢大大发帖
写发片 我倒是在ESXi里面跑的OMV……感觉性能也还可以,直通了raid卡过去 谢谢大大发片 请问楼主大大还有没有可能修复一下挂掉的图 mark一下 本来也想直接装omv+kvm, 想了想还是怕自己手贱把系统折腾出问题, 最后还是选择了pve+omv+nextcloud+Aria2, 软路由没啥需求就懒得折腾了 stopperzx 发表于 2018-10-11 19:48
本来也想直接装omv+kvm, 想了想还是怕自己手贱把系统折腾出问题, 最后还是选择了pve+omv+nextcloud+Aria2,...
我目前也是pve+omv,但有个问题,把数据从omv的smb共享复制出来有正常千兆网水平,但复制数据进去速度就减半,有解决方法吗 hhz1213 发表于 2018-10-12 01:13
我目前也是pve+omv,但有个问题,把数据从omv的smb共享复制出来有正常千兆网水平,但复制数据进去速度就 ...
WIN10的smb毛病太多了,我换了FTP之后啥事都没了 本帖最后由 塔奇克马 于 2018-10-12 02:22 编辑
hhz1213 发表于 2018-10-11 14:42
请问楼主大大还有没有可能修复一下挂掉的图
win10重装,东西全没了,等等我在弄个新帖,直接脚本甩出来得了.
页:
[1]