ハマった時は # init 0

試したことを書き綴ってます

ubuntu13.10でlibguestfs-toolsが動かないので対処

ubuntu13.10 では、12/12現在、libguestfs-toolsが正常に動作しません。(うちの環境だけかも)

libguestfs-test-toolを実行するとこんなエラーが発生します。

** 省略 **
libguestfs: error: external command failed, see earlier error messages
libguestfs-test-tool: failed to launch appliance
libguestfs: closing guestfs handle 0xc14f60 (state 0)

いろいろ調べてみたらproposedリポジトリでは対処済みのパッケージがコミットされているようです。

https://bugs.launchpad.net/ubuntu/+source/libguestfs/+bug/1243190

/etc/apt/sources.list に次の設定を追加して、libguestfs-toolsの再インストールで対処しました。

deb http://jp.archive.ubuntu.com/ubuntu/ saucy-proposed main multiverse universe restricted

早くmainリポジトリにコミットされないかな・・・ これで、guestmount や virt-* などなど便利なコマンドが使えるようになりました。

openstack havana on ubuntu 13.10 (nova)

openstackとりまとめページ http://init0.hatenablog.com/entry/2013/10/05/232939

はじめに

novaの各サービス,nova-compute, keystone, glance, mysqlを1サーバ上にオールインワンで構築した時のメモです。

nova インストール

# aptitude install nova-api nova-cert nova-conductor \
 nova-network nova-scheduler nova-compute-kvm rabbitmq-server \
 python-novaclient python-nova-adminclient

設定のため nova の各サービスは一旦停止する。

# stop nova-network
# stop nova-api
# stop nova-scheduler
# stop nova-cert
# stop nova-conductor
# stop nova-compute

設定ファイル修正

/etc/nova/nova.conf

  • sql_connectionで、mysqlの接続設定をする
    • 事前に、nova用のDB(名称はnova)を作成済み
    • openstackのユーザを、stackという名称で、パスワードをstackで作成済み
    • stackユーザは、novaデータベースの全操作を行えるようロールを付与済み
  • ネットワークは、VlanManagerを使用

補足ですが、nova-apiやnova-network,compute,glance,keystoneなどなど、 それぞれを別サーバ上に設置する場合は、

  • glance_host
  • rabbit_host

などの設定が必要です。

[DEFAULT]
dhcpbridge_flagfile=/etc/nova/nova.conf
dhcpbridge=/usr/bin/nova-dhcpbridge
logdir=/var/log/nova
state_path=/var/lib/nova
lock_path=/var/lock/nova
force_dhcp_release=True
iscsi_helper=tgtadm
libvirt_use_virtio_for_bridges=True
connection_type=libvirt
root_helper=sudo nova-rootwrap /etc/nova/rootwrap.conf
verbose=True
ec2_private_dns_show_ip=True
api_paste_config=/etc/nova/api-paste.ini
volumes_path=/var/lib/nova/volumes
enabled_apis=ec2,osapi_compute,metadata
use_ipv6=false

# MySQL Connection #
sql_connection=mysql://stack:stack@127.0.0.1/nova

## nova-api #
auth_strategy=keystone

## Networking #
network_manager=nova.network.manager.VlanManager
vlan_interface=eth0

/etc/nova/api-paste.ini

  • keystoneとの連携設定をする(tenant,userなどはあらかじめkeystoneに作成済み)
    • tenant名は、service
    • user名とpasswordは、nova,nova
    • keystoneとnovaは同一サーバ上に設置するため、auto_hostは、127.0.0.1
### 省略

[filter:authtoken]
paste.filter_factory = keystoneclient.middleware.auth_token:filter_factory
auth_host = 127.0.0.1
auth_port = 35357
auth_protocol = http
admin_tenant_name = service
admin_user = nova
admin_password = nova
# signing_dir is configurable, but the default behavior of the authtoken
# middleware should be sufficient.  It will create a temporary directory
# in the home directory for the user the nova process is running as.
#signing_dir = /var/lib/nova/keystone-signing
# Workaround for https://bugs.launchpad.net/nova/+bug/1154809
auth_version = v2.0

### 省略

nova設定

DB初期化と、novaのネットワーク設定を実施する。

DB初期化

# nova-manage db sync

novaの内部ネットワーク作成(fixed ip)

  • あらかじめkeystoneに登録したテナントのIDを確認する。
    • SERVICE_TOKENはkeystoneの設定時に決めたもの
# export SERVICE_TOKEN="ADMIN"
# export SERVICE_ENDPOINT="http://192.168.0.110:35357/v2.0"
#
# keystone tenant-list
WARNING: Bypassing authentication using a token & endpoint (authentication credentials are being ignored).
+----------------------------------+---------+---------+
|                id                |   name  | enabled |
+----------------------------------+---------+---------+
| 291d8659c224497e9183d8be80aa5ef4 |  admin  |   True  |
| b570ab00d8c2492f95082b21618b2359 |   demo  |   True  |
| c53fbee6f45944f5b77e2a1f41ffa9ab | service |   True  |
+----------------------------------+---------+---------+
#
# unset SERVICE_TOKEN
# unset SERVICE_ENDPOINT

demoテナント用のネットワークを作成する。

  • マルチNICとするので、2系統ネットワークを作成する。
  • 1つ目のネットワークは、
    • vlanid=102 (環境に合わせて任意のvlan idで良い)
    • bridge=br102 (環境に合わせて任意の名称で良い)
    • cidrは、10.0.2.0/24 (環境に合わせて任意)
    • projectには、あらかじめ調べたdemoテナントのIDを指定する
  • 2つ目のネットワークは、
    • vlanid=103 (環境に合わせて任意のvlan idで良い)
    • bridge=br103 (環境に合わせて任意の名称で良い)
    • cidrは、10.0.3.0/24 (環境に合わせて任意)
    • projectには、あらかじめ調べたdemoテナントのIDを指定する
# nova-manage network create --vlan=102 --bridge=br102 \
--bridge_interface=eth0 --fixed_range_v4=10.0.2.0/24 \
--num_network=1 --network_size=256 --label=demo1 --gateway=10.0.2.1 \
--fixed_cidr=10.0.2.0/24 --project=b570ab00d8c2492f95082b21618b2359 
#
# nova-manage network create --vlan=103 --bridge=br103 \
--bridge_interface=eth0 --fixed_range_v4=10.0.3.0/24 \
--num_network=1 --network_size=256 --label=demo2 --gateway=10.0.3.1 \
--fixed_cidr=10.0.3.0/24 --project=b570ab00d8c2492f95082b21618b2359 
  • 補足

うちの環境では、network create実行時に、次のエラーが発生する。無視。 多分、環境が汚れまくっているせいだと思う… (/usr/localに入れた記憶はないんだけど…)

2013-11-02 22:02:35.298 4512 INFO nova.network.driver [-] Loading network driver 'nova.network.linux_net'
2013-11-02 22:02:35.346 4512 ERROR stevedore.extension [-] Could not load 'file': (python-glanceclient 0.7.0 (/usr/local/lib/python2.7/dist-packages/python_glanceclient-0.7.0-py2.7.egg), Requirement.parse('python-glanceclient>=0.9.0'))
2013-11-02 22:02:35.346 4512 ERROR stevedore.extension [-] (python-glanceclient 0.7.0 (/usr/local/lib/python2.7/dist-packages/python_glanceclient-0.7.0-py2.7.egg), Requirement.parse('python-glanceclient>=0.9.0'))
2013-11-02 22:02:35.346 4512 TRACE stevedore.extension Traceback (most recent call last):
2013-11-02 22:02:35.346 4512 TRACE stevedore.extension   File "/usr/lib/python2.7/dist-packages/stevedore/extension.py", line 89, in _load_plugins
2013-11-02 22:02:35.346 4512 TRACE stevedore.extension     invoke_kwds,
2013-11-02 22:02:35.346 4512 TRACE stevedore.extension   File "/usr/lib/python2.7/dist-packages/stevedore/extension.py", line 101, in _load_one_plugin
2013-11-02 22:02:35.346 4512 TRACE stevedore.extension     plugin = ep.load()
2013-11-02 22:02:35.346 4512 TRACE stevedore.extension   File "/usr/local/lib/python2.7/dist-packages/pkg_resources.py", line 2059, in load
2013-11-02 22:02:35.346 4512 TRACE stevedore.extension     if require: self.require(env, installer)
2013-11-02 22:02:35.346 4512 TRACE stevedore.extension   File "/usr/local/lib/python2.7/dist-packages/pkg_resources.py", line 2072, in require
2013-11-02 22:02:35.346 4512 TRACE stevedore.extension     working_set.resolve(self.dist.requires(self.extras),env,installer))
2013-11-02 22:02:35.346 4512 TRACE stevedore.extension   File "/usr/local/lib/python2.7/dist-packages/pkg_resources.py", line 598, in resolve
2013-11-02 22:02:35.346 4512 TRACE stevedore.extension     raise VersionConflict(dist,req) # XXX put more info here
2013-11-02 22:02:35.346 4512 TRACE stevedore.extension VersionConflict: (python-glanceclient 0.7.0 (/usr/local/lib/python2.7/dist-packages/python_glanceclient-0.7.0-py2.7.egg), Requirement.parse('python-glanceclient>=0.9.0'))
2013-11-02 22:02:35.346 4512 TRACE stevedore.extension

floating ip の作成

  • 192.168.0.128/28 を、nova の floating ip として作成(予約)する。
# nova-manage floating create --ip_range=192.168.0.128/28

novaの各サービスを起動

# start nova-network
# start nova-api
# start nova-scheduler
# start nova-cert
# start nova-conductor
# start nova-compute

これで、novaの基本的な設定は環境。 後は、ユーザやテナントごとの個別設定。

ユーザ・テナント設定

環境変数設定

novaのクライアントコマンドを実行する場合は、いくつか環境変数を設定する必要がある。

環境変数をexportするための設定ファイル(/root/creds/demo/openrc)を作成し読み込む

  • AUTH_URLには、keystoneのIPを指定
  • USERNAMEには、keystoneで作成したユーザ名を指定
  • PASSWORDには、上記ユーザのパスワードを指定
  • TENANT_NAMEには、demoを指定(本手順の場合)

openrc

export OS_AUTH_URL=http://192.168.0.110:5000/v2.0
export OS_USERNAME=demo
export OS_PASSWORD=demo
export OS_TENANT_NAME=demo
# source /root/creds/demo/openrc

VMへのログイン用SSH鍵ペア設定

SSH鍵ペアを生成し、novaに登録する。

  • 出力場所は、/root/creds/demo/id_rsa
  • パスワードは無しとした
# ssh-keygen
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa): /root/creds/demo/id_rsa
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
  • novaに登録する。
    • 最後の引数は任意の名称 (今回は、demokey とした)
nova keypair-add --pub-key /root/creds/demo/id_rsa.pub demokey 

floating ipでの接続時ポート開放

*とりあえず、icmp,sshのポートを開放する。

nova secgroup-add-rule default icmp -1 -1 0.0.0.0/0
nova secgroup-add-rule default tcp 22 22 0.0.0.0/0

VM起動

起動するVMイメージを確認する

  • glanceには、すでにVMイメージは登録済み。
  • 今回は、ubuntu13.04を起動するため、ubuntu13.04のIDを確認する。
# nova image-list
+--------------------------------------+-----------------------------+--------+--------+
| ID                                   | Name                        | Status | Server |
+--------------------------------------+-----------------------------+--------+--------+
| 3696a363-6d14-4c4b-93f6-3430cb734351 | ubuntu12.04                 | ACTIVE |        |
| 4a415489-00ae-46b0-9e6c-c398bff8ef9a | ubuntu13.04-qcow2           | ACTIVE |        |
+--------------------------------------+-----------------------------+--------+--------+

VM起動

  • novaコマンドにてVMを起動する。
# nova boot --image ubuntu13.04-qcow2 --flavor m1.small --key-name demokey  vm01

VM起動確認

  • nova listコマンドにて、起動状況を確認する。
    • Running となったらVM起動完了 (ただしSSHが起動完了しているとは限らない)
# nova list
+--------------------------------------+------+--------+------------+-------------+----------+
| ID                                   | Name | Status | Task State | Power State | Networks |
+--------------------------------------+------+--------+------------+-------------+----------+
| 88e8ef57-ddb0-470d-8ce7-ed22d70f2e12 | vm01 | BUILD  | spawning   | NOSTATE     |          |
+--------------------------------------+------+--------+------------+-------------+----------+
# nova list
+--------------------------------------+------+--------+------------+-------------+--------------------------------+
| ID                                   | Name | Status | Task State | Power State | Networks                       |
+--------------------------------------+------+--------+------------+-------------+--------------------------------+
| 88e8ef57-ddb0-470d-8ce7-ed22d70f2e12 | vm01 | ACTIVE | None       | Running     | demo2=10.0.3.3; demo1=10.0.2.3 |
+--------------------------------------+------+--------+------------+-------------+--------------------------------+
  • SSH秘密鍵を使用してログインする。
  • ついでにマルチNICになっているか確認する
# ssh -i /root/creds/demo/id_rsa 10.0.2.3


ubuntu@vm01:~$ dmesg | grep eth
[    3.379119] IPv6: ADDRCONF(NETDEV_UP): eth0: link is not ready
[    3.379125] IPv6: ADDRCONF(NETDEV_UP): eth1: link is not ready
[    6.128238] IPv6: eth0: IPv6 duplicate address fe80::f816:3eff:fe2d:e66b detected!
ubuntu@vm01:~$
ubuntu@vm01:~$ exit
logout
Connection to 10.0.2.3 closed.

floating ip を割り当てSSHログインする

# nova floating-ip-create
+---------------+-------------+----------+------+
| Ip            | Instance Id | Fixed Ip | Pool |
+---------------+-------------+----------+------+
| 192.168.0.129 | None        | None     | nova |
+---------------+-------------+----------+------+

# nova add-floating-ip vm01 192.168.0.129
#
# ssh -i /root/creds/demo/id_rsa ubuntu@192.168.0.129

VMを停止(破棄)する

# nova delete vm01

openstack havana on ubuntu 13.10 (glance)

openstackとりまとめページ http://init0.hatenablog.com/entry/2013/10/05/232939

インストール

# aptitude install glance
# dpkg -l | grep glance
ii  glance                                            1:2013.2~rc1-0ubuntu1                             all          OpenStack Image Registry and Delivery Service - Daemons
ii  glance-api                                        1:2013.2~rc1-0ubuntu1                             all          OpenStack Image Registry and Delivery Service - API
ii  glance-common                                     1:2013.2~rc1-0ubuntu1                             all          OpenStack Image Registry and Delivery Service - Common
ii  glance-registry                                   1:2013.2~rc1-0ubuntu1                             all          OpenStack Image Registry and Delivery Service - Registry
ii  python-glance                                     1:2013.2~rc1-0ubuntu1                             all          OpenStack Image Registry and Delivery Service - Python library
ii  python-glanceclient                               1:0.11.0-0ubuntu1                                 all          Client library for Openstack glance server.

設定のため、glanceは一旦停止する。

# service glance-api stop
# service glance-registry stop

設定

設定のポイントは、

  • glanceのデータを格納するDBはsqliteに(デフォルト)
  • keystoneとの連携設定をする(tenant,userなどはあらかじめkeystoneに作成済み)
    • tenant名は、service
    • user名とpasswordは、glance,glance
    • keystoneとglanceは同一サーバ上に設置するため、auto_hostは、127.0.0.1

/etc/glance/glance-api.conf

### 省略

[keystone_authtoken]
auth_host = 127.0.0.1
auth_port = 35357
auth_protocol = http
admin_tenant_name = service
admin_user = glance
admin_password = glance
#admin_tenant_name = %SERVICE_TENANT_NAME%
#admin_user = %SERVICE_USER%
#admin_password = %SERVICE_PASSWORD%

/etc/glance/glance-registry.conf

### 省略

[keystone_authtoken]
auth_host = 127.0.0.1
auth_port = 35357
auth_protocol = http
admin_tenant_name = service
admin_user = glance
admin_password = glance
#admin_tenant_name = %SERVICE_TENANT_NAME%
#admin_user = %SERVICE_USER%
#admin_password = %SERVICE_PASSWORD%

DBへスキーマ登録

# glance-manage db_sync

glance起動

# service glance-api start
# service glance-registry start

イメージ登録

credential設定
  • adminユーザのcredentialを環境変数に設定する
    • .bashrcに書いておくと楽…
# export OS_USERNAME=admin
# export OS_PASSWORD=admin
# export OS_TENANT_NAME=admin
# export OS_AUTH_URL=http://192.168.0.110:5000/v2.0
イメージ登録(qcow2形式の場合)

最近のopenstackは、qcow2形式でさくっとイメージ登録できるようになったみたいです。

# wget http://cloud-images.ubuntu.com/releases/13.04/release/ubuntu-13.04-server-cloudimg-amd64-disk1.img
# glance image-create --disk-format=qcow2 --container-format=bare --is-public=True \
    --name=ubuntu13.04-qcow2 \
    --file=./ubuntu-13.04-server-cloudimg-amd64-disk1.img
イメージ登録(ami形式の場合)

昔ながらのami形式の場合

ダウンロードして、kernelイメージとramdiskの登録

# wget https://launchpad.net/cirros/trunk/0.3.0/+download/cirros-0.3.0-x86_64-uec.tar.gz
# tar xvfz  cirros-0.3.0-x86_64-uec.tar.gz
# glance image-create --disk-format=aki --container-format=aki --is-public=True \
    --name=cirros-aki --file=./cirros-0.3.0-x86_64-vmlinuz

# glance image-create --disk-format=ari --container-format=ari --is-public=True \
    --name=cirros-ari --file=./cirros-0.3.0-x86_64-initrd

先ほど登録した、kernelイメージと、ramdiskのIDを確認して、マシンイメージを登録

# glance image-list | grep cirros
| fa6d0a30-f1ff-42f3-959c-7feefb4fda78 | cirros-aki                  | aki         | aki              | 4731440    | active |
| 34565d35-296c-455e-95df-151ca7e2ceb0 | cirros-ari                  | ari         | ari              | 2254249    | active |
# 
# glance image-create --disk-format=ami --container-format=ami --is-public=True \
    --property kernel_id='fa6d0a30-f1ff-42f3-959c-7feefb4fda78' --property ramdisk_id='34565d35-296c-455e-95df-151ca7e2ceb0' \
    --name=cirros-ami --file=./cirros-0.3.0-x86_64-blank.img

openstack havana on ubuntu 13.10

openstack havana(rc1) を ubuntu13.10(beta)上に構築したときのメモです。

1サーバ内に、keystone, glance, nova(compute,network,api ...)のすべてをインストールしています。

openstack havana on ubuntu 13.10 (keystone)

openstackとりまとめページ http://init0.hatenablog.com/entry/2013/10/05/232939

ubuntu13.10 betaに更新したら、いつものごとくopenstackが動かなくなったので、再インストール。 まずは、keystoneから。

事前に、mysqlは次の設定をしてあります。

  • openstack の共通ユーザ stack を作成済み
    • パスワードは、stack
  • keystone 用のデータベース keystone を作成済み
  • ユーザ stack には、keystoneデータベースを操作する全権限を付与
keystone インストール
aptitude install keystone python-keystone keystone-doc
aptitude install python-mysqldb
keystoneの設定ファイル修正

設定変更のポイントは、

  • tokenは'ADMIN'
  • データベースは、sqliteからmysqlに変更
    • ユーザ名とパスワードは、共に、'stack'
    • データベース名は、'keystone'
  • keystoneは、192.168.0.110で動作
    • public_endpoint と admin_endpointを、localhostから192.168.0.110に変更

デフォルト設定との差分を記載しておきます。

< admin_token = ADMIN
---
> # admin_token = ADMIN
6c6
< bind_host = 0.0.0.0
---
> # bind_host = 0.0.0.0
9c9
< public_port = 5000
---
> # public_port = 5000
12c12
< admin_port = 35357
---
> # admin_port = 35357
18,19d17
< public_endpoint = http://192.168.0.110:%(public_port)s/
< admin_endpoint = http://192.168.0.110:%(admin_port)s/
51,52c49
< #debug = False
< debug = True
---
> # debug = False
55,56c52
< #verbose = False
< verbose = True
---
> # verbose = False
91,92c87
< #connection = sqlite:////var/lib/keystone/keystone.db
< connection = mysql://stack:stack@192.168.0.110/keystone
---
> connection = sqlite:////var/lib/keystone/keystone.db
keystoneの再起動 (設定反映)
service keystone restart
エンドポイント、ユーザ、テナントなどなど投入

ちまちまコマンドを入力すると大変なので、大昔に拾ってきたnova.shを改造したスクリプトを走らせます。

スクリプトで実行していることのポイントは、

  • keystone,nova,cinder,glance,ec2,swiftのエンドポイント作成
  • 各テナント作成
    • service用のテナント(service)作成
    • adminテナントと、demoテナント作成
  • ユーザ作成
    • adminユーザと、demoユーザ作成
  • ロール作成
  • テナントとユーザ、ロールのひも付け

keystone.sh

#!/bin/bash

mysql -ustack -pstack -e 'DROP DATABASE IF EXISTS keystone;'
mysql -ustack -pstack -e 'CREATE DATABASE keystone CHARACTER SET utf8;'
keystone-manage db_sync

#
# Initial data for Keystone using python-keystoneclient
#
# Tenant               User      Roles
# ------------------------------------------------------------------
# admin                admin     admin
# service              glance    admin
# service              nova      admin, [ResellerAdmin (swift only)]
# service              quantum   admin        # if enabled
# service              swift     admin        # if enabled
# demo                 admin     admin
# demo                 demo      Member, anotherrole

## invisible_to_admin   demo      Member
## Tempest Only:
## alt_demo             alt_demo  Member
#
# Variables set before calling this script:
# SERVICE_TOKEN - aka admin_token in keystone.conf
# SERVICE_ENDPOINT - local Keystone admin endpoint
# SERVICE_TENANT_NAME - name of tenant containing service accounts
# ENABLED_SERVICES - stack.sh's list of services to start
# DEVSTACK_DIR - Top-level DevStack directory

ADMIN_PASSWORD=admin
SERVICE_PASSWORD=${SERVICE_PASSWORD:-$ADMIN_PASSWORD}
#export SERVICE_TOKEN=$SERVICE_TOKEN
#export SERVICE_ENDPOINT=$SERVICE_ENDPOINT
export SERVICE_TOKEN=ADMIN
export SERVICE_ENDPOINT=http://192.168.0.110:35357/v2.0
SERVICE_TENANT_NAME=service
#ENABLED_SERVICES=quantum

function get_id () {
    echo `$@ | awk '/ id / { print $4 }'`
}

# keystone
keystone service-create --name=keystone --type=identity --description="Identity Service"
service_id=`keystone service-list | grep keystone | awk '{ print $2 }'`
keystone endpoint-create \
    --region RegionOne \
    --publicurl='http://192.168.0.110:$(public_port)s/v2.0' \
    --internalurl='http://192.168.0.110:$(public_port)s/v2.0' \
    --adminurl='http://192.168.0.110:$(admin_port)s/v2.0' \
    --service-id="${service_id}"

# nova
keystone service-create --name=nova --type=compute --description="Compute Service"
service_id=`keystone service-list | grep nova | awk '{ print $2 }'`
keystone endpoint-create \
    --region RegionOne \
    --publicurl='http://192.168.0.110:$(compute_port)s/v1.1/$(tenant_id)s' \
    --internalurl='http://192.168.0.110:$(compute_port)s/v1.1/$(tenant_id)s' \
    --adminurl='http://192.168.0.110:$(compute_port)s/vl.1/$(tenant_id)s' \
    --service-id="${service_id}"


# cinder 
keystone service-create --name=cinder --type=volume --description="Volume Service"
service_id=`keystone service-list | grep cinder | awk '{ print $2 }'`
keystone endpoint-create \
    --region RegionOne \
    --publicurl='http://192.168.0.110:8776/v1/$(tenant_id)s' \
    --internalurl='http://192.168.0.110:8776/v1/$(tenant_id)s' \
    --adminurl='http://192.168.0.110:8776/v1/$(tenant_id)s' \
    --service-id="${service_id}"

# glance 
keystone service-create --name=glance --type=image --description="Image Service"
service_id=`keystone service-list | grep glance | awk '{ print $2 }'`
keystone endpoint-create \
    --region RegionOne \
    --publicurl='http://192.168.0.110:9292/v1' \
    --internalurl='http://192.168.0.110:9292/v1' \
    --adminurl='http://192.168.0.110:9292/v1' \
    --service-id="${service_id}"

# ec2 
keystone service-create --name=ec2 --type=ec2 --description="EC2 Compatibility Layer"
service_id=`keystone service-list | grep ec2 | awk '{ print $2 }'`
keystone endpoint-create \
    --region RegionOne \
    --publicurl='http://192.168.0.110:8773/services/Cloud' \
    --internalurl='http://192.168.0.110:8773/services/Cloud' \
    --adminurl='http://192.168.0.110:8773/services/Admin' \
    --service-id="${service_id}"

# swift
keystone service-create --name=swift --type=object-store --description="Object Storage Service"
service_id=`keystone service-list | grep swift | awk '{ print $2 }'`
keystone endpoint-create \
    --region RegionOne \
    --publicurl 'http://192.168.0.110:8888/v1/AUTH_%(tenant_id)s' \
    --internalurl 'http://192.168.0.110:8888/v1/AUTH_%(tenant_id)s' \
    --adminurl 'http://192.168.0.110:8888/v1' \
    --service-id="${service_id}"

### Tenants
echo "keystone tenant-create --name=admin"
ADMIN_TENANT=$(get_id keystone tenant-create --name=admin)
echo "keystone tenant-create --name=$SERVICE_TENANT_NAME"
SERVICE_TENANT=$(get_id keystone tenant-create --name=$SERVICE_TENANT_NAME)
echo "keystone tenant-create --name=demo"
DEMO_TENANT=$(get_id keystone tenant-create --name=demo)


### Users

echo "keystone user-create --name=admin \\
                     --pass=admin \\
                     --email=admin@example.com"
ADMIN_USER=$(get_id keystone user-create --name=admin \
                                         --pass=admin \
                                         --email=admin@example.com)
echo "keystone user-create --name=demo --pass=demo --email=demo@example.com"
DEMO_USER=$(get_id keystone user-create --name=demo \
                                        --pass=demo \
                                        --email=demo@example.com)



### Roles
echo "keystone role-create --name=admin"
ADMIN_ROLE=$(get_id keystone role-create --name=admin)

echo "keystone role-create --name=KeystoneAdmin"
KEYSTONEADMIN_ROLE=$(get_id keystone role-create --name=KeystoneAdmin)

echo "keystone role-create --name=KeystoneServiceAdmin"
KEYSTONESERVICE_ROLE=$(get_id keystone role-create --name=KeystoneServiceAdmin)

# ANOTHER_ROLE demonstrates that an arbitrary role may be created and used
# TODO(sleepsonthefloor): show how this can be used for rbac in the future!
echo "keystone role-create --name=anotherrole"
ANOTHER_ROLE=$(get_id keystone role-create --name=anotherrole)



# Add Roles to Users in Tenants
echo "keystone user-role-add \\
        --user-id $ADMIN_USER \\
        --role-id $ADMIN_ROLE \\
        --tenant-id $ADMIN_TENANT"
keystone user-role-add --user-id $ADMIN_USER --role-id $ADMIN_ROLE --tenant-id $ADMIN_TENANT
echo "keystone user-role-add \\
        --user-id $ADMIN_USER \\
        --role-id $ADMIN_ROLE \\
        --tenant-id $DEMO_TENANT"
keystone user-role-add --user-id $ADMIN_USER --role-id $ADMIN_ROLE --tenant-id $DEMO_TENANT
echo "keystone user-role-add \\
        --user-id $DEMO_USER \\
        --role-id $ANOTHER_ROLE \\
        --tenant-id $DEMO_TENANT"
keystone user-role-add --user-id $DEMO_USER --role-id $ANOTHER_ROLE --tenant-id $DEMO_TENANT

# TODO(termie): these two might be dubious
echo "keystone user-role-add \\
        --user-id $ADMIN_USER \\
        --role-id $KEYSTONEADMIN_ROLE \\
        --tenant-id $ADMIN_TENANT"
keystone user-role-add --user-id $ADMIN_USER --role-id $KEYSTONEADMIN_ROLE --tenant-id $ADMIN_TENANT
echo "keystone user-role-add \\
        --user-id $ADMIN_USER \\
        --role-id $KEYSTONESERVICE_ROLE \\
        --tenant-id $ADMIN_TENANT"
keystone user-role-add --user-id $ADMIN_USER --role-id $KEYSTONESERVICE_ROLE --tenant-id $ADMIN_TENANT


# The Member role is used by Horizon and Swift so we need to keep it:
echo "keystone role-create --name=Member"
MEMBER_ROLE=$(get_id keystone role-create --name=Member)
echo "keystone user-role-add \\
        --user-id $DEMO_USER \\
        --role-id $MEMBER_ROLE \\
        --tenant-id $DEMO_TENANT"
keystone user-role-add --user-id $DEMO_USER --role-id $MEMBER_ROLE --tenant-id $DEMO_TENANT
#echo "keystone user-role-add --user-id $DEMO_USER --role-id $MEMBER_ROLE --tenant-id $INVIS_TENANT"
#keystone user-role-add --user-id $DEMO_USER --role-id $MEMBER_ROLE --tenant-id $INVIS_TENANT


# Configure service users/roles
### nova

echo "keystone user-create --name=nova --pass=nova --tenant-id=$SERVICE_TENANT --email=nova@example.com"
NOVA_USER=$(get_id keystone user-create --name=nova \
                                        --pass=nova \
                                        --tenant-id=$SERVICE_TENANT \
                                        --email=nova@example.com)
echo "keystone user-role-add \\
        --tenant-id $SERVICE_TENANT \\
        --user-id $NOVA_USER \\
        --role-id $ADMIN_ROLE"
keystone user-role-add --tenant-id $SERVICE_TENANT \
                       --user-id $NOVA_USER \
                       --role-id $ADMIN_ROLE
### glance
echo "keystone user-create \\
        --name=glance \\
        --pass=glance \\
        --tenant-id=$SERVICE_TENANT \\
        --email=glance@example.com"
GLANCE_USER=$(get_id keystone user-create --name=glance \
                                          --pass=glance \
                                          --tenant-id=$SERVICE_TENANT \
                                          --email=glance@example.com)
echo "keystone user-role-add \\
        --tenant-id $SERVICE_TENANT \\
        --user-id $GLANCE_USER \\
        --role-id $ADMIN_ROLE"
keystone user-role-add --tenant-id $SERVICE_TENANT \
                       --user-id $GLANCE_USER \
                       --role-id $ADMIN_ROLE


#-------------------------------------#
### swift
if [[ "$ENABLED_SERVICES" =~ "swift" ]]; then
    SWIFT_USER=$(get_id keystone user-create --name=swift \
                                             --pass="$SERVICE_PASSWORD" \
                                             --tenant-id $SERVICE_TENANT \
                                             --email=swift@example.com)
    keystone user-role-add --tenant-id $SERVICE_TENANT \
                           --user-id $SWIFT_USER \
                           --role-id $ADMIN_ROLE
    # Nova needs ResellerAdmin role to download images when accessing
    # swift through the s3 api. The admin role in swift allows a user
    # to act as an admin for their tenant, but ResellerAdmin is needed
    # for a user to act as any tenant. The name of this role is also
    # configurable in swift-proxy.conf
    RESELLER_ROLE=$(get_id keystone role-create --name=ResellerAdmin)
    keystone user-role-add --tenant-id $SERVICE_TENANT \
                           --user-id $NOVA_USER \
                           --role-id $RESELLER_ROLE
fi
### quantum
#if [[ "$ENABLED_SERVICES" =~ "quantum" ]]; then
    QUANTUM_USER=$(get_id keystone user-create --name=quantum \
                                               --pass=quantum \
                                               --tenant-id $SERVICE_TENANT \
                                               --email=quantum@example.com)
    keystone user-role-add --tenant-id $SERVICE_TENANT \
                           --user-id $QUANTUM_USER \
                           --role-id $ADMIN_ROLE
#fi

### tempest
if [[ "$ENABLED_SERVICES" =~ "tempest" ]]; then
    # Tempest has some tests that validate various authorization checks
    # between two regular users in separate tenants
    ALT_DEMO_TENANT=$(get_id keystone tenant-create --name=alt_demo)
    ALT_DEMO_USER=$(get_id keystone user-create --name=alt_demo \
                                        --pass="$ADMIN_PASSWORD" \
                                        --email=alt_demo@example.com)
    keystone user-role-add --user-id $ALT_DEMO_USER --role-id $MEMBER_ROLE --tenant-id $ALT_DEMO_TENANT
fi

動作確認
# export SERVICE_TOKEN=ADMIN
# export SERVICE_ENDPOINT=http://192.168.0.110:35357/v2.0
# keystone tenant-list
+----------------------------------+---------+---------+
|                id                |   name  | enabled |
+----------------------------------+---------+---------+
| be62de978cb1449bb7f2b07b6d843da1 |  admin  |   True  |
| fd35d9bcbfe24472b64de647c1cfa7ae |   demo  |   True  |
| 5fb7e8b70c5b4ec5a85ac6c805b372d7 | service |   True  |
+----------------------------------+---------+---------+
# keystone user-list
+----------------------------------+---------+---------+---------------------+
|                id                |   name  | enabled |        email        |
+----------------------------------+---------+---------+---------------------+
| 786eddecf5734aa599274efae47bb165 |  admin  |   True  |  admin@example.com  |
| 6aa7c5e45093470ab6b7c34b7398e6d6 |   demo  |   True  |   demo@example.com  |
| 3362dfd307c14f3d8650c8aca5799723 |  glance |   True  |  glance@example.com |
| 8ff413df4d2e4aeabc962f5fd219c28d |   nova  |   True  |   nova@example.com  |
| 24d5d26e796046a1bbefbbcdf5beb6a9 | quantum |   True  | quantum@example.com |
+----------------------------------+---------+---------+---------------------+
# keystone endpoint-list
+----------------------------------+-----------+----------------------------------------------------------+----------------------------------------------------------+----------------------------------------------------------+----------------------------------+
|                id                |   region  |                        publicurl                         |                       internalurl                        |                         adminurl                         |            service_id            |
+----------------------------------+-----------+----------------------------------------------------------+----------------------------------------------------------+----------------------------------------------------------+----------------------------------+
| 17f8987f033b4cb680fe303a5236e40b | RegionOne | http://192.168.0.110:$(compute_port)s/v1.1/$(tenant_id)s | http://192.168.0.110:$(compute_port)s/v1.1/$(tenant_id)s | http://192.168.0.110:$(compute_port)s/vl.1/$(tenant_id)s | 2e5b5b625d7a4a3f978545368549d569 |
| 2b602001fb5d4679961169e082706b2f | RegionOne |     http://192.168.0.110:8888/v1/AUTH_%(tenant_id)s      |     http://192.168.0.110:8888/v1/AUTH_%(tenant_id)s      |               http://192.168.0.110:8888/v1               | 420ef6c5bfab4ffb99b4f3c220a6614e |
| 620cf107eab243dab4e12aa31ce7e50b | RegionOne |        http://192.168.0.110:8776/v1/$(tenant_id)s        |        http://192.168.0.110:8776/v1/$(tenant_id)s        |        http://192.168.0.110:8776/v1/$(tenant_id)s        | 643347a0762a43fd8cffd86ac95d3b96 |
| 96c908693ffc4b8a917e3b3305712306 | RegionOne |               http://192.168.0.110:9292/v1               |               http://192.168.0.110:9292/v1               |               http://192.168.0.110:9292/v1               | a3765d34ffec436ab66a25d2b68889eb |
| ae31ab318bbc458bb8da9efd58b2fe19 | RegionOne |        http://192.168.0.110:$(public_port)s/v2.0         |        http://192.168.0.110:$(public_port)s/v2.0         |         http://192.168.0.110:$(admin_port)s/v2.0         | e54114caf2b1404e965884ae6058ec3a |
| e8ad726861f74259815fcea16408dcf4 | RegionOne |         http://192.168.0.110:8773/services/Cloud         |         http://192.168.0.110:8773/services/Cloud         |         http://192.168.0.110:8773/services/Admin         | 766cc898f98d456dbb00793ca3dd211d |
+----------------------------------+-----------+----------------------------------------------------------+----------------------------------------------------------+----------------------------------------------------------+----------------------------------+
#

次は、glanceです。そのうち投稿。

pdshコマンドで複数サーバに対してコマンド並列実行

pdshコマンドを使うと複数のサーバに対して、同じコマンドを並列で実行可能です。 分散システムの構築などで、複数のサーバを操作する際に非常に便利。

並列ってところが最高ですね。

事前準備
  • 環境変数 PDSH_RCMD_TYPE でサーバへ接続する際に使用するコマンドを指定
    • ssh接続する場合は、"ssh"
  • 環境変数 PDSH_SSH_ARGS で ssh コマンドのオプションを指定
  • .bashrc などで、上記の環境変数をexportしておく
  • ssh公開鍵認証で、対象サーバに、パスワードなしでsshログインできるように準備しておく
export PDSH_RCMD_TYPE='ssh'
export PDSH_SSH_ARGS='-oUserKnownHostsFile=/dev/null -oStrictHostKeyChecking=no -oLogLevel=ERROR -l%u %h'
複数のサーバに対して、コマンドを並列実行
  • -wオプションでサーバ一覧を指定(正規表現が使える)
# pdsh -w 10.0.0.[3-5,7] 'service --status-all 2>/dev/null' 
10.0.0.5:  [ - ]  bootlogd
10.0.0.7:  [ - ]  bootlogd
10.0.0.4:  [ - ]  bootlogd
10.0.0.3:  [ - ]  bootlogd
10.0.0.5:  [ - ]  grub-common
10.0.0.7:  [ - ]  grub-common
10.0.0.4:  [ - ]  grub-common
10.0.0.3:  [ - ]  grub-common
10.0.0.5:  [ + ]  ssh
10.0.0.7:  [ + ]  ssh
10.0.0.4:  [ + ]  ssh
10.0.0.3:  [ + ]  ssh
10.0.0.5:  [ - ]  stop-bootlogd
10.0.0.7:  [ - ]  stop-bootlogd
10.0.0.4:  [ - ]  stop-bootlogd
10.0.0.3:  [ - ]  stop-bootlogd
10.0.0.5:  [ - ]  stop-bootlogd-single
10.0.0.7:  [ - ]  stop-bootlogd-single
10.0.0.4:  [ - ]  stop-bootlogd-single
10.0.0.3:  [ - ]  stop-bootlogd-single
10.0.0.5:  [ - ]  urandom
10.0.0.4:  [ - ]  urandom
10.0.0.7:  [ - ]  urandom
10.0.0.3:  [ - ]  urandom
dshbakで整形

pdshの出力をパイプしてdshbakコマンドに流し込むと次のように、サーバごとに整形してくれます。

# pdsh -w 10.0.0.[3-5,7] 'service --status-all 2>/dev/null' | dshbak 
----------------
10.0.0.3
----------------
 [ - ]  bootlogd
 [ - ]  grub-common
 [ + ]  ssh
 [ - ]  stop-bootlogd
 [ - ]  stop-bootlogd-single
 [ - ]  urandom
----------------
10.0.0.4
----------------
 [ - ]  bootlogd
 [ - ]  grub-common
 [ + ]  ssh
 [ - ]  stop-bootlogd
 [ - ]  stop-bootlogd-single
 [ - ]  urandom
----------------
10.0.0.5
----------------
 [ - ]  bootlogd
 [ - ]  grub-common
 [ + ]  ssh
 [ - ]  stop-bootlogd
 [ - ]  stop-bootlogd-single
 [ - ]  urandom
----------------
10.0.0.7
----------------
 [ - ]  bootlogd
 [ - ]  grub-common
 [ + ]  ssh
 [ - ]  stop-bootlogd
 [ - ]  stop-bootlogd-single
 [ - ]  urandom

bashrcとvimrc

いつも忘れて調べるので、自分用メモ・・・

bashrc

export PS_FORMAT="pid,tty,user,stat,time,args"
export PS1="\[\033[01;32m\]\u@\h\[\033[00m\]:\[\033[01;34m\]\W\[\033[00m\] [\t]\$ "

#SOCKDIR=`/bin/ls -ld /tmp/ssh-*  | grep $USER | awk '{ print $9 }'`
#SSH_AUTH_SOCK=`/bin/ls ${SOCKDIR}/agent*`
#SSH_AGENT_PID=`/bin/ps x -U $USER -u $USER | grep ssh-agent | grep -v "grep" | awk '{ print $1 }'`
#export SSH_AUTH_SOCK;
#export SSH_AGENT_PID;

ulimit -S -c unlimited

vimrc

colorschem evening
set number
set tabstop=4
set shiftwidth=4
set softtabstop=4
set expandtab
set laststatus=2
set statusline=%<%f\ %m%r%h%w%{'['.(&fenc!=''?&fenc:&enc).']['.&ff.']'}%=%l,%c%V%8P
set fileencodings=utf-8,iso-2022-jp,euc-jp
set backupdir=~/tmp/vimbackup
set tags+=tags;
set tags+=./**/tags
set fo=oql
":e ++enc=iso-2022-jp
""set fo-=ro
"set formatoptions=cql
""set autoindent
"
""" binary mode
augroup Binary
        au!
        au BufReadPre  *.bin let &bin=1
        au BufReadPost *.bin if &bin | %!xxd
        au BufReadPost *.bin set ft=xxd | endif
        au BufWritePre *.bin if &bin | %!xxd -r
        au BufWritePre *.bin endif
        au BufWritePost *.bin if &bin | %!xxd
        au BufWritePost *.bin set nomod | endif
augroup END