中間報告書 - 東京大学

学際大規模情報基盤共同利用・共同研究拠点 平成 23 年度共同研究 中間報告書 2011 年 12 月
11-IS01
分散クラウドシステムにおける遠隔連携技術
棟朝 雅晴(北海道大学)
概要 北海道大学アカデミッククラウドをはじめとする全国各地に分散配置されたクラ
ウドシステムを連携し、相互運用するために必要な技術について開発を行う。具体的に
は、バーチャルプライベートネットワークにより相互接続されたバーチャルマシン群を
一つのクラスタとして運用するための技術、分散バーチャルクラスタ上での並列分散処
理に関する研究開発、広域ネットワークを使用することに伴う性能評価、異なるクラウ
ドミドルウェア間での相互運用に関する検討、研究開発を実施するものである。本年度
においては、2011 年 11 月の北海道大学アカデミッククラウドの運用開始に合わせて、
技術的な選択肢の検討、およびプロトタイプシステムの構築に関する技術的検討を行っ
ており、具体的にはクラウドミドルウェアの API を用いたバーチャルマシンの設定、立
ち上げや、それらを相互接続するバーチャルプライベートネットワークの制御を行うた
めに必要となるソフトウェアの開発を実施している。
1. 研究の目的と意義 る。特に、大規模分散クラウドシステム上におけ
る MapReduce や MPI 等のバーチャルマシンクラス
本共同研究課題は、地理的に分散配置されたプ
タの構成に関する検討を行い、実験的にクラスタ
ライベートクラウドシステムを連携させるために
を構成し、その性能について評価を行う。 必要となる技術的課題について検討、検証するこ
(4)大規模分散クラウドストレージの実現に必
とを目的とするものである。学際大規模情報基盤
要な、拠点間でのストレージシステムの連携技術
共同利用・共同研究拠点は、大規模計算機とそれ
について検討、検証する。 を支える汎用計算機資源が大容量ネットワークで
(5)ハイパーバイザソフトウェア、クラウドシ
接続されており、さらに近年、いくつかの拠点に
ステム管理ミドルウェアが互いに異なる環境にお
おいてプライベートクラウドシステムの構築を計
ける管理システム間の連携方法に関する検討を行
画している。そこで、各拠点におけるプライベー
う。 トクラウドシステムを大容量ネットワークで接続
することにより、広域分散型の大規模クラウドシ
以上の技術的課題について、北海道大学から九
ステムの構築をめざし、主な技術的課題として以
州大学にいたる広域分散クラウドシステムのテス
下の項目について研究開発を行う。 トベッドを構築することを通して、日本全体にわ
たるアカデミッククラウドの連携に必要となる基
(1)バーチャルプライベードネットワークとし
盤的技術の開発、および運用モデルの確立を目指
て SINET4 におけるオンデマンド L2/L3VPN サービ
すものである。 ス等を用いた、分散プライベートクラウドシステ
クラウドコンピューティングについて、海外で
ムの相互接続に関する検討、検証、接続実験を行
は大規模なクラウドシステムによるサービスが行
う。 われているが、ハイパフォーマンスコンピューテ
(2)使用するネットワークに依存した拠点間の
ィングを実現するものはまだ少なく、さらにその
伝送遅延と帯域による影響に関する検証実験を実
利用条件、利用料金、ネットワーク遅延、セキュ
施する。 リティポリシーなどの問題から、国内の大学や研
(3)分散配置され、相互接続されたバーチャル
究機関における要求にすべて合致させることは困
マシン群を用いたシステム設計法について検討す
難である。 1
学際大規模情報基盤共同利用・共同研究拠点 平成 23 年度共同研究 中間報告書 2011 年 12 月
このため、各大学・研究機関においてプライベ
ートクラウドシステムの構築が進められていると
(3) 当公募型共同研究ならではという事項など ころであるが、予算上の制約等により、それぞれ
のシステムの規模は比較的小規模なものに留まる
全国規模での分散クラウド連携プロジェクトと
ことが多く、クラウドコンピューティングによる
して、ネットワーク型拠点に分散配置されたクラ
スケールメリットが生かされないという問題が生
ウド資源を活用した、実運用を目指した研究開発
じる。 であることが特徴的である。 そこで、本研究プロジェクトにおいては、各大
学においてそれぞれ導入されたプライベートクラ
3. 研究成果の詳細 ウドシステムを連携させ、大規模なアカデミック
クラウドシステムを構築することで、各大学のポ
(1)バーチャルプライベートネットワークを用
リシーを生かしつつ、かつスケールメリットを享
いた分散プライベートクラウドの相互接続に関す
受できるような分散環境を実現することを目指し
る検証 ている。そのために必要となる技術的課題につい
て、具体的な広域分散クラウドシステムの相互連
北海道大学情報基盤センターと国立情報学研究
携を通して検討、検証するところに、本共同研究
所(一ツ橋)との間をバーチャルプライベートネ
の意義が存在する。 ットワークにより相互接続することで、図1に示
また、各研究拠点が持つ汎用計算機資源の利用
す分散プラベートクラウド環境を構築した。 率は、拠点によって偏りがある。仮想化により拠
E,$/7;<"+?'F/#$G/?'
'*/$H//,'!"II-6?"'),6J/7#6$K'-,?'LEE
点を意識することなく、余剰資源を持つ拠点の計
算機資源へのアクセスが可能となることにより、
汎用計算機資源がより有効活用されることが期待
6,$/7,/$
される。分散クラウドシステムに保存された情報
資源は、複数の拠点に分散されて配置されるが、
これにより保存された情報資源へのアクセスが分
散され、トラフィックの集中や計算機負荷の上昇
を分散させることができる。また、広域に分散配
!"#$%&'(')*+,$+'
!"#$,-./'('0".1+$/2'
' 9:;'
' !"#$,-./'('<=02><"0-<'
''
''
!-?""1
''
''
/$34
''
'
'
'
/$34
/$38
'
!"#$%&'(')*+,$+'
!"#$,-./'(3+$*445'
' 9:;'
' !"#$,-./'('<=03+5><"0-<'
''
''
!-?""1
''
''
''
/$34
'
'
'
/$34
/$38
一ツ橋
5@A>5BC>54>4DA8
置される事によるディザスタリカバリなど可用性
&ELMF
の向上が期待される。 北大
54>5>8>4DA8
5@A>5BC>A44>4DA8
図1 北大̶NII 間での InterCloud 試験環境 2. 当拠点公募型共同研究として実施した意義 本試験システムでは、Linux コンテナをベース
(1) 共同研究を実施した大学名 とした CaaS (Cluster-as-a-Service)と呼ばれる
クラウド環境を構築し、遠隔接続のために、SINET
北海道大学、東京工業大学、国立情報学研究所、
の L2-VPN(帯域幅:1Gbps)機能を用いてネット
九州大学、東京大学、東京藝術大学、広島大学 ワークを構成した。図の赤線の部分のネットワー
クがバーチャルプライベートネットワークとして
(2) 共同研究分野 サイト間で共有されているネットワークである。
それぞれのサイトにおける計算資源は以下の通り
超大規模情報システム関連研究分野 である。 2
学際大規模情報基盤共同利用・共同研究拠点 平成 23 年度共同研究 中間報告書 2011 年 12 月
直接接続した場合と比べて 21%程度の帯域幅の低
・国立情報学研究所:DELL PowerEdge R715 x 2
下が見られていることが分かった。 台(AMD Opteron 6128 2GHz x 2, Mem: 32GB, HDD: また、ネットワーク遅延については、VPN のオ
500GB) ーバーヘッドもあり、ping のレスポンスが 20ms
・北海道大学:DELL PowerEdge R200 x 2 台 程度となったため、図3に示されるトランザクシ
(Intel Xeon E3110 3GHz, Mem: 2GB, HDD: 160GB) ョンの性能(秒あたり処理できるトランザクショ
ン数)については、大幅な性能劣化が見られた。 ・VPN: SINET-4 L2VPLS(1000Base-T 接続) ・ソフトウェア環境:Ubuntu 11.04、LXC で Hadoop
Transaction(tran/s)
をインストールし、クラスタを構成 12000
10007.38
10000
(2)ネットワーク伝送遅延および帯域幅に関す
8000
る評価実験 7359.00125
6000
北海道大学と国立情報学研究所との間で構成さ
4000
れたバーチャルプライベートネットワークを用い
2000
て、それぞれのサーバ間での転送実験を行った。
48.7375
0
測定にあたっては Linux コンテナとして実現され
一ツ橋2台間
北大2台間
北大-­‐一ツ橋間
たサーバから、Linux コンテナが動作している物
とは別の物理マシンへのファイル転送を行った場
図3 北大⇔NII 間でのトランザクション性能評価 合のスループットを測定している。測定を行った
結果を図2に示す。縦軸はスループット(Mbps/s)
(3)分散クラウド上でのバーチャルマシンクラ
を示している。 スタの実現に関する検討 本課題については Hadoop をインストールした
Throughput(Mbps/s)
2000
1800
1600
1400
1200
1000
800
600
400
200
0
バーチャルマシンから構成されるクラスタシステ
9899.03
ムに関する性能評価を行っている。はじめに、北
海道大学アカデミッククラウド内での Hadoop ク
ラスタに関する性能評価を行った。本性能評価に
941.38
ついては、当該クラウドシステムの負荷試験の一
740.6925
部として実施した物であり、システムの仕様で定
められた上限である 2,000 のバーチャルマシンを
同時にクラスタ化して Hadoop を実行した場合の
一ツ橋2台間
北大2台間
北大-­‐一ツ橋間
性能についても試験している。 図2 北大⇔NII 間での帯域幅測定 試験に使用したハードウェア、ハイパーバイザ、
ソフトウェア等の環境は以下の通りである。 国立情報学研究所(一ツ橋)内では 10GbE で直
接接続されているため、理論値に近いスループッ
・ハードウェア:HITACHI BladeSymphony BS2000 A1 トがでており、北大内においても GbE の理論値に
(Intel Xeon E7-8870 2.4GHz x 4 (10 x 4 = 40 近い値が出ている。北大⇔国立情報学研究所間で
cores), Mem: 128GB, HDD: FC-SAN 20TB, Network: は L2-VPN によるオーバーヘッドが出ているため、
10GbE x 2 per node) 3
学際大規模情報基盤共同利用・共同研究拠点 平成 23 年度共同研究 中間報告書 2011 年 12 月
・ハイパーバイザ:XenServer 5.6 さらに、北海道大学と国立情報学研究所の間で
・ソフトウェア:Hadoop 0.20.2 実現された InterCloud 試験環境(図1)で実施し
・ マ ス タ ー ノ ー ド : Xeon E7-8870 4 コ ア (VM) た Hadoop の試験結果の一例を図5に示す。 Mem:8GB, HDD:100GB, CentOS 5.5 (64bit) ・スレーブノード:Xeon E7-8870 1 コア(VM), Mem: gridmix 処 理時間(sec)
3GB, HDD:100GB, CentOS 5.5 (64bit) 16000
14000
12000
10000
8000
6000
4000
2000
0
図4に評価試験の結果を示す。ここでは、Hadoop
のベンチマーク問題である Teragen と Terasort に
ついて試験を行っている。横軸はタスク数(使用
したバーチャルマシンの数)であり、縦軸は単位
時間あたりに処理できたデータのサイズ(MB/s)
14602
14589
7892
一ツ橋
を示している。 北大
1台
一ツ橋2台
8812
一ツ橋1台
北大1台
7558
北大2台
2台
図5 北大⇔NII 間での Hadoop 試験結果 この結果によると、同一サイト内で行った結果
に比べ、北海道大学、国立情報学研究所の両方の
サーバをつないで行った結果が若干劣るものの、
その性能劣化が 10%程度に抑えられていることが
分った。 (4)大規模分散クラウドストレージに関する連
携方式の検討 図4 北大クラウドにおける大規模 Hadoop クラス
タの性能評価結果 大規模分散クラウドストレージについては、現
在 検 討 を す す め て い る 段 階 で あ り 、 OpenStack この結果によると、Teragen の場合で 500 まで、
swift などオブジェクトストレージサーバの構築
Terasort の場合で 1000 まで性能向上が見られる。
および連携について検討を行っている。 それを超えると性能低下が見られるが、この理由
としては、物理ノードの数が 100 程度であり、デ
(5)異なるハイパーバイザソフトウェア、クラ
ィスク I/O でのオーバーヘッドが無視できなくな
ウドミドルウェア環境における連携方式の検討 るためであると考えられる。当該クラウドでは、
すべての利用者で最大 2,000 のバーチャルマシン
異なるクラウド環境の間での相互接続、連携方
を共有して利用することから、実利用において一
式の検討のため、現在、CloudStack と OpenNebula
利用者が構成可能なクラスタとしては高々200 程
の互いに異なるクラウドミドルウェアを用いた
度のバーチャルマシンであるものと予想されるた
InterCloud 試験システムの構築を行っている。構
め、ここで示された結果は、実運用上妥当なもの
築中の試験システムの構成図を図6に示す。 であると考えられる。 4
学際大規模情報基盤共同利用・共同研究拠点 平成 23 年度共同研究 中間報告書 2011 年 12 月
準で装備しており、その API を以下のような形式
!"#"$%&"'"%()*+'#"$,-%(.*/")#0".
で呼び出し、VPN アクセスのためのユーザ設定を
行い、クライアント側から当該ユーザ、パスワー
,-%(.1#234
56"'7"8(-2
ドで呼び出すことで、L2TP ベースの VLAN を設定
することが可能となっている。 9:7
http://<IPaddress>:8080/client/api? command = addVpnUser & username = <vpn-user> & password = <pw> & apiKey= *******O1R8fvEFkPPGLYJ******* & 図6 CloudStack と OpenNebula による InterCloud
signature = *******pL81VMNaUbLoV******* 試験環境 このような API 呼び出しを用い、バーチャルマ
本 試 験 シ ス テ ム は 、 CloudStack お よ び
シンおよびバーチャルプライベートネットワーク
OpenNebula の標準インストール環境を実装すると
を設定し、バーチャルマシンのクラスタを自動的
ともに、それらの間でバーチャルプライベートネ
に設定するために必要な技術的課題について検討
ットワークを自動的に設定し、異なるクラウドミ
を行っている。図8に OpenNebula と CloudStack
ドルウェアの管理下にあるバーチャルマシン群を
間での VPN 接続の試験環境を示す。 一つのクラスタとして運用するための試験をおこ
VPN over Heterogeneous Clouds
なうものである。 クラウドミドルウェアにおいては、その API を
OpenNebula
CloudStack
REST などにより呼び出すことで、バーチャルマシ
ンやストレージ、ネットワーク等の資源を確保す
Gateway
Management Server
133.87.4.54
ることが可能となっている。図7に CloudStack に
133.87.4.1
Virtual Router
133.50.1.202
192.168.0.3
おけるバーチャルマシンを確保するための API 呼
Gateway
133.50.1.1
192.168.0.4
び出しの例を示す。 Computing Node
VPN Server
VPN Client
An Example of CloudStack API
(Deploy Virtual Machines)
図8 OpenNebula と CloudStack 間での VPN 接続 http://<IP Addr>:8080/client/api?
command = deployVirtualMachine &
displayname = myinstance &
group = myGroup &
zoneid = 1 &
templateid = 2 &
serviceofferingid = 1 &
apiKey = ***O1R8fvEFkPPGLYJ*** &
signature = ****LJ9KXxFDEw1Ix*** OpenNebula 側では CloudStack のようなソフトウ
ェアスイッチが標準で用意されていないため、VPN
クライアントソフトウェアを特定のバーチャルマ
シンにインストールし、そこから CloudStack 側の
ソフトウェアスイッチを呼び出す方式について検
討し、検証システムの構築を行っている。 図7 CloudStack における API 呼び出し例 以上の検討をふまえ、現在、異なるクラウドミ
ドルウェアでの管理下にあるクラウドが相互連携
バーチャルプライベートネットワークについて、 したインタークラウド環境において、バーチャル
CloudStack では専用のソフトウェアスイッチを標
マシンクラスタを自動設定するためのクラウドマ
5
学際大規模情報基盤共同利用・共同研究拠点 平成 23 年度共同研究 中間報告書 2011 年 12 月
ネージャーの開発を行っている(図9)。 !"#$%&'(#)*+%#,)*(-).'+/0)1$
•  !2(&1-(!34(&''+,&5+1(&1-(*)$(%.(&*(&(,'%*$)#6
!"#$%&'()'%*$+#(,+-./0+1$(
.2+#($3+(41$+#)'.%5(612"#.10+1$
9"$)(E
9:;4<=>2(?@6A
7)*+%#,)*(8).'+/0)1$
!2
9/*$)0(4&0)
!2
!2
C)*$(9/*$)0(4+6A
7)B%)*$(!"#$%&'(7)*+%#,)*
41$+#7)'.%5(8&1&9+#(
!"#$
%&'$
9"$)(E !2F9G
:.#$&'(<==+**
H
E(IJ(K !34F33C3G ALM.*
9"$)(K !2F=G
N
!2
>D
!8
!8
!:;
!34
()*+,-
!2
9"$)(K
!8
!:;
図 11 仮想クラスタの自動構成 図9 インタークラウドでの仮想クラスタの構成 ここでは、Site A からバーチャルマシン(サー
ビスレベル S)を3台、Site B からバーチャルマ
本クラウドマネージャーにおいては、利用者が
シン(サービスレベル L)を2台、それらを相互
それぞれのクラウドミドルウェアのクラウド API
接続する VPN (PPTP)を 1Gbps の帯域幅で確保する
を操作するための証明書を事前に登録しておき、
という例を示しており、ポータルからの指示にし
それらを Single Sign On ポータルから利用するこ
たがって、クラウドマネージャーが自動的にそれ
とを可能とする。図 10 にそのポータルシステムの
ぞれのクラウドミドルウェアの API を事前に登録
画面例を示す。 された証明書によりアクセスして呼び出すことで、
分散配置されたバーチャルマシンクラスタを自動
!"#$%&'()*%+*,%$#()"-$+.'*
的に構成することができる。 •  //0%&'()*%+*,%$#()"-$+.'*%'1%2#$.32+-#"%1'$%
456%+22#""%'1%,)7#$#*-%2&'8,%9),,&#:+$#;
/>6=?<0@%AB;C
<'()*
!"#$%=+9#
D#()"-#$%?#$.32+-#"
/)-#%=+9#%F%4,,$#""
?#$.32+-# !E&'+,
5+"":'$,
4. これまでの進捗状況と今後の展望 />6=?<0@%AB;C
本年度の前半においては、2011 年 11 月 1 日の
北海道大学アカデミッククラウドのサービス開始
0H
D#()"-#$#,%/)-#%<)"-
!"#$
%&&'
($'#
/)-#%4
4,,$%4
?#$-%4
/)-#%G
4,,$%G
?#$-%G
に向けて、それぞれの研究目標に関する各種の課
題について事前の検討を行うとともに、基礎的な
プロトタイプの構築及び実験による検証を行って
図 10 分散クラウド連携ポータルの画面例 いる。 北海道大学においては、当該クラウドシステム
ポータルシステムから登録された証明書にした
のサービス開始後直ちに、運用システムとは別に
がって、異なるサイト上に分散配置された資源に
(運用システムにおいては、管理上の理由により
たいして、利用者の要求に応じたバーチャルマシ
API アクセスをセンターポータルシステムからに
ンクラスタの資源確保および設定を自動的に行う
限定しているため)CloudStack の標準インストー
ことを可能とする。自動構成の動作概念図を図 11
ル環境を用意し、API をベースとしたクラウド資
に示す。 源へのアクセスを可能とするシステムの構築を行
っている。 他のサイトにおける計算資源としては、東京工
6
学際大規模情報基盤共同利用・共同研究拠点 平成 23 年度共同研究 中間報告書 2011 年 12 月
業大学における OpenNebula をベースとしたクラ
式に関する検討があげられる。特に、要求に応じ
ウド試験システム、国立情報学研究所における
て自動的にシステムのサイズを変更するオートス
OpenStack, Eucalyptus などによるクラウドシス
ケーリング(バーチャルマシンのサービスレベル
テム、九州大学における VCL (Virtual Computing の変更、およびその台数の変更)に関する検討を
Laboratory)によるシステムの活用を予定してい
行う。さらに、自然災害など障害発生時のバーチ
る。 ャルマシンの遠隔マイグレーションへの対応につ
平成 23 年度においては、図 12 に示されるよう
いても試験を実施する予定である。 な、全国規模の分散クラウドテストベッドの構築
管理運用については、学認や HPCI などの認証基
を行っており、中間報告時点で九州大学を除くサ
盤との連携方式に関する検討が必要となる。さら
イト間接続を完了している。 に、単純なクラスタシステム以外のシステムパタ
ネットワーク接続に関しては、国立情報学研究
ーン(Web 三階層モデルなど)への対応や、仮想
所との間では SINET-4 L2VPLS による接続が完了し
ストレージおよびその他の仮想化された計算資源
ており、他に東京工業大学、東京大学等との接続
への対応についても検討を進めているところであ
を今年度中に終える予定である。さらに、ソフト
る。 ウェアスイッチによる L2VPN については、グロー
今後の展望としては、さらに参加サイトを増や
バルインターネット上での実装を予定している。 し、全国的な大規模クラウドテストベッドとして
の展開を目指して研究開発を推進する計画である。 5. 研究成果リスト 北海道大学!
アカデミッククラウド!
"#$%&'()*+,-!
(1) 学術論文 九州大学!
"6#72!0)+8-!
[1] 棟朝雅晴, 高井昌彰: 北海道大学アカデミッ
東京工業大学!
"./01504&$*-!
ククラウドにおけるコンテンツマネジメントシス
テムの展開, 情報処理学会第 10 回情報科学技術
フォーラム論文集(査読付) (2011) 国立情報学研究所!
"./01()*+,2!34&1)&-!
(2) 国際会議プロシーディングス 図 12 平成23年度におけるテストベッド [2] Omar Abdul-Rahman, Masaharu Munetomo and それぞれ異なるクラウドミドルウェアにより管
Kiyoshi 理されていることから、それらの違いを吸収する
Architecture for the Management of Virtualized ためのクラウドマネージャーの実現を通して、相
Application Environments in Cloud Platforms, 互に連携して運用するための試験を継続して実施
Proceedings of the IEEE 4th International する予定である。現状においては、バーチャルマ
Conference on Cloud Computing (IEEE CLOUD 2011), シンとバーチャルプライベートネットワークによ
pp.754-755 (2011) る Hadoop などのバーチャルマシンクラスタの自
[3] Mohamed Wahib, Asim Munawar, Masaharu 動構成について実装を行っているところである。 Munetomo and Akama Kiyoshi: A Framework for 今後の課題としては、まず、動的に変化する負
Cloud Embedded Web Services Utilized by Cloud 荷要求に対応するバーチャルマシンの割り当て方
Applications, Proceedings of the IEEE 2011 7
Akama: Multi-Level Autonomic 学際大規模情報基盤共同利用・共同研究拠点 平成 23 年度共同研究 中間報告書 2011 年 12 月
World Congress on Services Computing (IEEE 謝辞 SERVICES 2011), pp.265-271 (2011) 本研究の実施にあたっては、学際大規模共同利
用・共同研究拠点共同研究に加えて、北海道大学
(3) 国際会議発表 情報基盤センター、同共同研究経費、国立情報学
研究所の援助を受けている。 (4) 国内会議発表 [4] 棟朝雅晴: 北海道大学アカデミッククラウド
の構築, アカデミッククラウドシンポジウム 2011
@北海道大学 (2011) [5] 日下部茂: 九州大学システム情報科学府・研
究院でのキャンパスクラウドの活用, アカデミッ
ク ク ラ ウ ド シ ン ポ ジ ウ ム 2011 @ 北 海 道 大 学 (2011) [6] 横山重俊: 教育クラウド edubase Cloud の利
用事例と運用, アカデミッククラウドシンポジウ
ム 2011@北海道大学 (2011) [7] 西村浩二: 組織間連携による分散ファイル管
理システムの開発, アカデミッククラウドシンポ
ジウム 2011@北海道大学 (2011) [8] 滝澤真一朗: RENKEI-PoP による広域分散 VM ホスティングの構築, アカデミッククラウドシン
ポジウム 2011@北海道大学 (2011) [9] 實本英之: VM を考慮したジョブスケジュー
リングシステムの開発, アカデミッククラウドシ
ンポジウム 2011@北海道大学 (2011) [10] 小林泰三: 大規模広域分散システム:管理者
と利用者の視点から, アカデミッククラウドシン
ポジウム 2011@北海道大学 (2011) [11] 横山重俊, 長久勝, 吉岡信和: クラウド基
盤構築フレームワーク Dodai について, 第 30 回
インターネット技術第 163 委員会研究会 (2011) (5) その他(特許,プレス発表,著書等) [12] Hokkaido University Builds Japan
Largest Academic Cloud Using Cloud.com
s : Business Wire (http://www.businesswire.com/) 他多数 (2011) 8