OpenStack Train版离线部署|6.2计算节点-Nova计算服务组件

682 阅读5分钟

欢迎留言讨论,期待与你共同进步掘金人的第一篇博客 - 掘金 (juejin.cn)

本系列文章包教你如何从零开始搭建一套OpenStack开发环境,涉及多个OpenStack。
当前教程中使用的OpenStack的安装版本为第20个版本Train,简称T版本。
Release Note
Train,Originally Released: 16 October, 2019
Ussuri,Originally Released: 13 May, 2020
Victoria,Originally Released: 14 October, 2020

掘金社区


掘金社区:OpenStack Train版离线部署|系列教程「全」
掘金社区:OpenStack Ussuri版离线部署|系列教程「全」
掘金社区:OpenStack Victoria版部署|系列教程「全」

OpenStack Train版离线部署|0制作本地离线yum源
OpenStack Train版离线部署|1控制节点-环境准备
OpenStack Train版离线部署|2计算节点-环境准备
OpenStack Train版离线部署|3控制节点-Keystone认证服务组件
OpenStack Train版离线部署|4控制节点-Glance镜像服务组件
OpenStack Train版离线部署|5控制节点-Placement服务组件
OpenStack Train版离线部署|6.1控制节点-Nova计算服务组件
OpenStack Train版离线部署|6.2计算节点-Nova计算服务组件
OpenStack Train版离线部署|6.3控制节点-Nova计算服务组件
OpenStack Train版离线部署|7.1控制节点-Neutron网络服务组件
OpenStack Train版离线部署|7.2计算节点-Neutron网络服务组件
OpenStack Train版离线部署|7.3控制节点-Neutron网络服务组件
OpenStack Train版离线部署|8控制节点-Horizon服务组件
OpenStack Train版离线部署|9启动一个实例
OpenStack Train版离线部署|10控制节点-Heat服务组件
OpenStack Train版离线部署|11.1控制节点-Cinder存储服务组件
OpenStack Train版离线部署|11.2存储节点-Cinder存储服务组件
OpenStack Train版离线部署|11.3控制节点-Cinder存储服务组件
OpenStack Train版离线部署|11.4计算节点-Cinder存储服务组件
OpenStack Train版离线部署|11.5实例使用-Cinder存储服务组件


掘金社区:个性化制作OpenStack镜像|系列教程
个性化制作OpenStack镜像|环境准备
个性化制作OpenStack镜像|Windows7
个性化制作OpenStack镜像|Windows10
个性化制作OpenStack镜像|Linux
个性化制作OpenStack镜像|Windows Server2019


CSDN

CSDN:OpenStack部署系列文章
OpenStack Victoria版 安装部署系列教程
OpenStack Ussuri版 离线安装部署系列教程(全)
OpenStack Train版 离线安装部署系列教程(全)
欢迎留言讨论,期待与你共同进步。


OpenStack Train版离线部署|6.2计算节点-Nova计算服务组件

官方参考:
OpenStack官方安装指南:服务组件
Nova-install
Nova-controller-install
Nova-compute-install
Nova-install-verify
博客:
CentOS7安装OpenStack(Rocky版)-05.安装一个nova计算节点实例
Train安装指南系列

一、Nova相关软件安装与配置

1.安装nova软件

yum install openstack-nova-compute -y
yum install python-openstackclient openstack-selinux -y
#用于快速配置
yum install openstack-utils -y 

2.配置文件修改

/etc/nova/nova.conf
依次执行以下命令,将其写入脚本,执行脚本

cd
touch compute-node-nova.conf.sh
vim compute-node-nova.conf.sh
bash compute-node-nova.conf.sh

compute-node-nova.conf.sh文件内容

#!/bin/bash
#compute-node-nova.conf.sh
openstack-config --set  /etc/nova/nova.conf DEFAULT my_ip 192.168.232.111
openstack-config --set  /etc/nova/nova.conf DEFAULT use_neutron True
openstack-config --set  /etc/nova/nova.conf DEFAULT firewall_driver nova.virt.firewall.NoopFirewallDriver
openstack-config --set  /etc/nova/nova.conf DEFAULT enabled_apis  osapi_compute,metadata
openstack-config --set  /etc/nova/nova.conf DEFAULT transport_url  rabbit://openstack:openstack@controller

openstack-config --set  /etc/nova/nova.conf api auth_strategy  keystone 

openstack-config --set  /etc/nova/nova.conf keystone_authtoken www_authenticate_uri http://controller:5000/
openstack-config --set  /etc/nova/nova.conf keystone_authtoken auth_url http://controller:5000/
openstack-config --set  /etc/nova/nova.conf keystone_authtoken memcached_servers controller:11211
openstack-config --set  /etc/nova/nova.conf keystone_authtoken auth_type password
openstack-config --set  /etc/nova/nova.conf keystone_authtoken project_domain_name default
openstack-config --set  /etc/nova/nova.conf keystone_authtoken user_domain_name default
openstack-config --set  /etc/nova/nova.conf keystone_authtoken project_name  service
openstack-config --set  /etc/nova/nova.conf keystone_authtoken username nova
openstack-config --set  /etc/nova/nova.conf keystone_authtoken password nova

openstack-config --set  /etc/nova/nova.conf vnc enabled True
openstack-config --set  /etc/nova/nova.conf vnc server_listen 0.0.0.0
openstack-config --set  /etc/nova/nova.conf vnc server_proxyclient_address  '$my_ip'
openstack-config --set  /etc/nova/nova.conf vnc novncproxy_base_url  http://controller:6080/vnc_auto.html

openstack-config --set  /etc/nova/nova.conf glance api_servers http://controller:9292

openstack-config --set  /etc/nova/nova.conf oslo_concurrency lock_path /var/lib/nova/tmp

openstack-config --set  /etc/nova/nova.conf placement region_name RegionOne
openstack-config --set  /etc/nova/nova.conf placement project_domain_name Default
openstack-config --set  /etc/nova/nova.conf placement project_name service
openstack-config --set  /etc/nova/nova.conf placement auth_type password
openstack-config --set  /etc/nova/nova.conf placement user_domain_name Default
openstack-config --set  /etc/nova/nova.conf placement auth_url http://controller:5000/v3
openstack-config --set  /etc/nova/nova.conf placement username placement
openstack-config --set  /etc/nova/nova.conf placement password placement

echo "Result of Configuration"
egrep -v "^#|^$" /etc/nova/nova.conf

bash compute-node-nova.conf.sh

注:Configure the [neutron] section of /etc/nova/nova.conf. Refer to the Networking service install guide for more details.
服务器组件监听本机所有的网卡的 IP 地址,而代理组件仅仅监听本机作为计算节点管理网络接口的 IP 地址。
在安装完成后注意修改:novncproxy_base_url为IP地址,IP地址为供应商地址,当除了管理网以外有多个IP地址时,选择合适的作为外部访问地址。

openstack-config --set  /etc/nova/nova.conf vnc novncproxy_base_url  http://192.168.232.101:6080/vnc_auto.html

3.确认计算节点是否支持虚拟机的硬件加速

首先确定您的计算节点是否支持虚拟机的硬件加速,

egrep -c '(vmx|svm)' /proc/cpuinfo

①如果返回值为0,则表示计算节点不支持硬件加速,并且需要配置libvirt为使用QEMU,使用以下命令:

openstack-config --set  /etc/nova/nova.conf libvirt virt_type  qemu
egrep -v "^#|^$" /etc/nova/nova.conf|grep 'virt_type'

另外,如果在VMware中搭建OpenStack,也需要配置libvirt为qemu。
②如果返回为其他值,表示计算节点支持硬件加速且通常不需要额外的配置,使用以下命令:

openstack-config --set  /etc/nova/nova.conf libvirt virt_type  kvm 
egrep -v "^#|^$" /etc/nova/nova.conf|grep 'virt_type'

4.启动计算服务并配置为开机自启

需要启动2个服务

systemctl start libvirtd.service openstack-nova-compute.service 
systemctl status libvirtd.service openstack-nova-compute.service
systemctl enable libvirtd.service openstack-nova-compute.service
systemctl list-unit-files |grep libvirtd.service
systemctl list-unit-files |grep openstack-nova-compute.service

注意:
(1)如果nova-compute服务无法启动,请检查 /var/log/nova/nova-compute.log。 该错误消息可能表明控制器节点上的防火墙阻止访问端口5672。将控制节点防火墙配置为打开控制器节点上的端口5672,并重新启动计算节点上的服务。
(2)控制节点

systemctl stop firewalld.service
systemctl disable firewalld.service
systemctl status firewalld.service

systemctl restart rabbit_server.service
systemctl restart rabbitmq-server.service
systemctl status rabbitmq-server.service
firewall-cmd --zone=public --add-port=5672/tcp --permanent
systemctl restart firewalld
firewall-cmd --zone=public --query-port=5672/tcp

二、 将计算节点添加到单元数据库中

请打开下一个安装教程文档。