ヒューマンエラーの特性および防止対策としての安全文化

人間環境学会『紀要』第1
6号 Sept. 2011
<論文>
ヒューマンエラーの特性および防止対策としての安全文化
―人間の心理・行動特性からの分析・考察―
施
桂 栄*1○、井 上
枝 一 郎*1
Characteristics of Human Error and Safety Culture
as a Prevention Measure
―An Analysis and Consideration from the View of Psychological
and Behavioral Trait of Humans―
Guirong Shi*1○
Shiichiro Inoue*1
Recently, accidents and trouble caused by human error are happening frequently in a
number of industrial fields. In order to accomplish work safely, it is being recognized that it is
important to take preventive measures from the viewpoint of human factors. In this study, the
mechanism of human error that causes accidents is analyzed based on the psychological and
behavioral traits such as human perception, cognition, and judgment. Furthermore, the construction of safety culture as a prevention measure in organizations is proposed, and several
problems relating to safety management and safety culture are discussed.
*1
Kanto Gakuin University; 1―50―1, Mutsuurahigashi, Kanazawa-Ku, Yokohama 236―8503, Japan.
key words:ヒューマンエラー(Human Error)
、安全文化(Safety Culture)
、
防止対策(Prevention Measure)
、心理特性(Psychological Trait)
、
行動特性(Behavioral Trait)
1. 序
論
1.
1 ヒューマンエラーの三側面
産業界における安全問題の歴史変遷を分析すると、初期段階(2
0世紀の初頭)では、安全問題は
単に技術的問題であると認識され、技術が事故の発生源として注目されていた。つまり、当時は、
*1
関東学院大学人間環境学部現代コミュニケーション学科;〒2
36―8
50
3 横浜市金沢区六浦東1―5
0―1
― 17 ―
ハード面での整備を強化すれば、事故を防止できるという考え方が主流であったことが窺える。し
かし、1
9
7
9年に発生したアメリカのスリーマイル島原子力発電事故(TMI 事故)により、安全問題
の主題が技術から人間に移り、人間行動が事故発生の主要因であると見なされ、個人レベルの
ヒューマンエラー(human error)という問題が提起されることとなった。これを契機に、作業現
場でも、事故防止の対策として、技術はともかくも、個人の「うっかり」や「ぼんやり」に代表さ
れるヒューマンエラーをいかに防ぐかということに関心が注がれる気運が高まった。
しがしながら、近年に至っても、産業界においては各種の事故やトラブルが依然として頻発して
いる。経済産業省は2
0
0
2年以降に発生した産業事故の直接的な要因について調査を行っているが、
その調査結果によると、誤操作、誤判断、マニュアルの不備など人的要因によるものが7割以上を
占めているという。特に、鉄鋼業界で発生した事故の9割は人的要因によるものであったと指摘し
ている1)。
高度で複雑なシステムを基盤として成立している現代産業社会では、個人のささいなミスでも、
その影響は個人が所属する組織に留まらず、一般社会も巻き込んだきわめて広い範囲に及ぶことが
必至となっている。したがって、今日的な産業事故防止策を考える上では、ヒューマンファクター
(人的要因:human factors)の視点から有効な対策を検討することが必須条件であると認識され、
作業安全に関係する「人の問題」がクローズアップされている。
現在、産業組織はテクノロジーの高度化に伴い、人間や機器、環境などの面で大きな変化に曝さ
れている。図1は、ヒューマンファクターの3分野(人間と機器類の接点、人間と人間の接点、人
間自身)を示したものだが、どの分野も様々な今日的問題を抱えている。
図1 ヒューマンファクターの3分野の現状
― 18 ―
ヒューマンエラーの特性および防止対策としての安全文化
人間と機器類の接点の側面(マン−マシンインタフェース)においては、機器側がコンピュータ
制御によって自動化を進めた結果、機器の「ブラックボックス化」現象はますます顕著なものと
なっている。そのため、原子力や鉄鋼、化学プラント産業などでは、システム全体の仕組みやプロ
セスが巨大化、複雑化するあまりに、現場作業者にはシステム全体を把握することができない事態
が招来している。つまり、専門家でない限りシステムや機器の中身を知ることができない、あるい
は、知る必要がないとされているかのようである。ところが、このような巨大化したシステムにお
いて、ひと度不具合が発生した場合には、そのシステムの暴走をくい止めることは大変な困難を伴
うこととなる。そして、最終的には、機器ではなく、現場の人間がその対処に当たることを余儀な
くされている。しかし、上述のように、ブラックボックス状態で長く作業に携わっていた人間が果
たして本当に対応できるかという問題がいやでも浮上して来ざるを得ない(2
0
1
1年3月1
1日に発生
した福島原発事故はその典型例である)
。そこには、ヒューマンエラーが発生する土壌が十分に存
在すると考えなければならない。
次に、人間対人間の接点(マン−マンインタフェース)の側面を考えてみよう。最近の産業現場
では、機器のみならず、そこで働く人間関係もまた急激に変わってきている。社会環境の著しい変
動は、働く上での人間の価値観を変容させずにはおかない。人間関係の構築を促す主な手段はコ
ミュニケーションであるが、現在の職場では、合理化と効率化を図った結果、孤立・単独作業が増
大し、その結果、同僚との関わりが減少する一方で、常時コミュニケーションをとらなくても仕事
ができるようになってきている。そのため、職場の人間関係(縦横方向:上司−部下関係、同僚関
係)が希薄化し、そもそもコミュニケーションの必要性の意識さえもが低下し、それに伴って関係
スキルもまた低下しつつある。
「確認する必要があるとは思わなかった、聞く人が傍にいなかっ
た」
「うまく言えなかった、聞いた事と違った」
、このようなエラーが現場では頻繁に起こっている
というのが現状である。コミュニケーションエラーはヒューマンエラーの王様だと言われる所以で
ある。
ヒューマンエラーを惹起する残る一つの側面は、人間自身(マンヒムセルフ)に関わる課題であ
る。作業のシステム化が進んだ職場では、作業手段はすべてマニュアル化され、人間はマニュアル
記載事項の他には何もしない、してはいけない、という精神構造が育まれ、毎日何も考えず、マニュ
アル通りに仕事を進めることとなっている。
「マニュアル人間」などというセリフが声高に叫ばれ
る現状がこれである。その結果は、かって先輩が保有していた技能の伝承が滞り、若者の熟練技術
者が減少しつつあることが報告されている。一方また、価値観の多様化に伴い、独善的・自己中心
的な行動様式をもつ若者が現代の社会環境の中で爆発的に輩出されている。かかる思考や行動様式
もまたヒューマンエラーの一因となる可能性を内包している。
― 19 ―
1.
2 ヒューマンエラーの原因論
冒頭で述べた調査結果も示しているように、最近の産業界で発生した事故やトラブルの主要な部
分に、人間が深く関与していることが明らかになっているが、このヒューマンエラー(human error)の原因を分析してみると、ほとんどのエラーが類似していることもまた明らかとなっている。
これは何を物語るかと考えるならば、つまり、現有のエラー対策が十分な有効性を発揮していない
ことの顕れではないであろうか。踏み込んでいえば、今までのヒューマンエラーに対する基本的な
考え方自体に誤りが存在していることが推察される。多分、この誤りの起源は、ヒューマンエラー
が事故の根本原因であるという誤った認識の流布に違いない。この考え方に基づいて打ち出された
原因論は個々の人間だけに焦点を当てたものとなり、対策立案に関しても、人間の心理や行動特性
を無視した「人間改造」のような施策に陥ってしまっている。典型例としては、エラーを起こした
人間に「しっかりしろ」
「もっと注意しろ」
「真剣にやれ」などという策を施し、個人責任の追及で
一件落着といパターンである。その結果、類似エラーが頻発するという状況が少しも変わらないこ
とになっている。
そこで、本研究では、ヒューマンファクターの視点から、現場で仕事に携わっている人間に焦点
を当てて、人間と作業システムや機器、環境などとのマッチングの悪さに因って生じたヒューマン
エラーのメカニズムを人間の心理・行動特性から科学的に分析、考察し、ヒューマンエラーを有効
に防止するための対策を検討することを目的としたものである。
2. ヒューマンエラー発生のメカニズム
近年、作業システムの中の人間はなぜエラーを起こしてしまうのかについて、行動科学の視点か
らの研究が盛んになって来ている。そのような研究者の代表格である英国の心理学者ジェームズ・
リーズン(1
9
9
0)は、
「計画された一連の精神的または身体的活動が、意図した結果に至らなかっ
2)
と述べている。この定義は、人間が行動の意図を形成し、それを
たものとしてエラーを考える」
達成し得なかった場合を、結果的にエラーだと規定している。しかし、人間はどのような行動をす
るかと決めるまでに、外部からの様々な刺激情報を受容し、知覚・認知・判断という一連の行為に
よって決定している。したがって、この、それぞれの段階の情報処理過程に介在する人間の心理・
行動特性を明らかにしなければ、エラーの発生を防止する有効な対策系を構築することは不可能で
ある。結果論的にエラーを規定したリーズンの考え方に加えて、人間の情報処理プロセスの中に潜
む特性との関連でエラーを規定する考え方(結果論に比して言えば因果論)を提示しておきたい。
― 20 ―
ヒューマンエラーの特性および防止対策としての安全文化
2.
1 人間の情報知覚段階の特性
情報処理の第一段階は知覚機能である。人間は視覚や聴覚、嗅覚、味覚などの器官により、外部
からの刺激を受容しこれに意味付けをして情報を処理する。その中で最も注目され研究の対象とさ
れてきたのは視覚である。人間は感覚器の異常にかかわらず、実際の対象物に対して誤った感覚や
認識を得ることがしばしばある。図2に示されている図形を観察すると、4本の線分はすべて平行
であるが、付加線の角度が鈍角であるほど、平行感のズレが顕著になることが理解できよう。ま
た、図3に示した図形は、実際には描かれていない三角形が明らかに浮き上がって見えてしまう。
人間は現実にないものさえも見てしまう特性を持っている。
このような現象を日常的に経験できる例では、駅で停止している電車に乗って窓越しに隣の停車
中の電車を見ているという場面で、不意に隣の電車が動き出すと、われわれは自分の電車が動き出
したかのような感覚を身体に感じる。認識の世界は物理的実体そのままではない。すなわち、
「何」
が「どこ」にあるかを理解するのは、われわれの内部情報処理の結果である。
図2 平行線の錯視
図3 描かれていない三角形の認知
作業現場では、このような現象による事故やトラブルはしばしば発生している。例えば、製品に
付着している汚れを払拭するために、ロール回転のスピードを遅く見積もり(自分の意図から推し
量った期待値に過ぎない)
、ラインを止めず手を入れてしまい指を切断してしまった事故、足場の
高さを勘違いし移動中に墜落してしまった事故、制御室で長時間同じボタンを監視していたあまり
に、ボタンの標識色に補色現象が生じ、違ったボタンを押してしまったトラブル等々。このような
知覚段階での特性は人間誰でも持っている。たとえ「注意しろ!」
「ちゃんと見なさい!」と言わ
れても、このようなエラーを防ぐことは不可能である。
― 21 ―
2.
2 人間の情報認知段階の特性
第二段階の情報処理は認知である(意図の形成)
。認知とは、人間が外界に存在する対象を知覚
した上で、それが何であるかを判断したり解釈したりする過程である。人間が「見る」ということ
は、単に外界の対象物を目の網膜に映すだけではない。ものを見たり聞いたりすることは、外部情
報を既に持っている経験や知識、期待、欲求などに基づいて解釈しようという無意識の意図を働か
せる作用である。そこには、人間の認知行動の特性によるリスクが隠れている。それは次の事故事
例を分析することから理解できよう。
1
9
9
4年、名古屋空港で中華航空のエアバス A3
0
0型機が着陸寸前に墜落する事故が起きた。航空
機のシステムが自動操縦のゴーアラウンドモードにあるのに、パイロットはそうとは気づかずに自
分の操縦で飛行していると思い込んでいたことが事故の直接原因であると指摘されている。
最初のトラブルは、飛行機が着陸コースに入った時点で自動操縦の「着陸やり直し(ゴーアラウ
ンド)モード」のスイッチが入れられたことに始まった(スイッチが入った原因は不詳)
。ゴーア
ラウンドは着陸に向けて降下している機体を、再上昇させて高度を上げることである。ところが、
パイロットはそのまま着陸するつもりであったので、急いで着陸に向けて降下するように操縦を
行った。すると、自動操縦のコンピュータは機体の降下に反応して、いっそう上昇するように機体
の姿勢を変えようとしたのである。それに対してパイロットはますます強く降下の操作をする。結
局、パイロットとコンピュータは正反対の操縦を続けてしまったのである。最後にはパイロットが
着陸をあきらめ、上昇しようとした途端、それまでにコンピュータが強く上昇の指示を出し続けて
いたため、異常な急上昇となって失速、墜落したものである3)。
飛行機が着陸コースに入ってから、自動操縦から手動操縦に切り替え、パイロットが手動で操縦
して飛行機を着陸させるのがマニュアルに決められているものであり、常識とは言えるほど極めて
基本的な操作である。それによって、着陸するつもりのパイロットは、ゴーアラウンドによる機体
上昇の反応を自分の知識(手動操作で着陸させること)や経験(機体が降下するはず)
、期待(着
陸すること)に基づいて解釈し、一所懸命手動で降下の操作を行ったのである。飛行機を着陸させ
ようとする意図が無意識的に強まっていたので、パイロットは、飛行機の操縦システムがまだ自動
操縦モードにあることに思いもよらなかったのであろう。この状況下では、自分の操縦で飛行機が
飛行しているという認知エラーに基づいて行われた判断は、直後にネガティブな結果が顕著化しな
い限り、本人はエラーを冒したことに気づけない例だと考えられる。
2.
3 ヒューマンエラーの特性
情報処理プロセスにおける人間の心理・行動的特性の分析により、
「人間はエラーを冒す生物で
― 22 ―
ヒューマンエラーの特性および防止対策としての安全文化
ある」ことが明らかになっている。人間工学では、ヒューマンエラーは次のように定義されてい
る。ヒューマンエラーは「許容可能な範囲を超えた人間行動の集合の任意の一要素であり、その許
4)
とか、
「効率や安全性やシステム・パフォーマンスを阻害
容限界はシステムによって定義される」
5)
である。
する、あるいは阻害する可能性がある、不適切または好ましからざる人間の決定や行動」
この定義の中では、人と機械は仕事のパートナーであり、マン・マシン・システムの中で人間に割
り当てられた仕事、人間が果たすべき仕事をこなすべきであり、それが期待通りにできなかった場
合、それが「ヒューマンエラー」であると考えているようである。しかしながら、心理学の知見か
ら分析した人間の特性によると、この定義によって規定されたエラーであっても、システムの状況
によってはヒューマンエラーにはなり得ないものがあるとの指摘もある。興味深いのは、逆に人間
の特性よって起こったエラーは「ヒューマンエラー」とは呼ばない方が適切だという主張もある。
事故の原因がまだ明らかになっていない段階で、人間が介在した事象を、すぐに「ヒューマンエ
ラー」と規定してしまうと、それは人間だけが問題視される原因論となる。その結果、システム全
体としての検討が行われず、エラー防止に有効な対策が得られないままで終わってしまう例はたく
さんある。ヒューマンエラーを有効に防ぐためには、
「ヒューマンエラーは事故の原因ではなく、
結果である」と考えることが重要である。
「なぜこのようなエラーが生じたのか」というエラー発
生の背景要因を探ることが有効な対策につながるのだと提言したい。エラーを引き起こす要因(リ
スク)が組織(システム全体)の何処に潜んでいるかを明らかにし、そのリスクを取り除くことが
根本的な解決策となる。
3. 防止対策としての安全文化
3.
1 組織エラー
人間の心理・行動の特性についての分析に拠り、人間は一定の状況下では必ずエラーを冒すこと
が明らかになっている。そのため、安全施策を立案する場合には、一旦は、人間は信頼できないも
のであるという立場に立つことが必要である。人間だけを検討の対象とした対策は有効でないこと
が明らかになった今日では、ヒューマンエラーを防止するためには、多面的に「安全」について取
り組むことの重要性が指摘されている。昨今、発生している事故を見てみると、技術的な問題で
も、作業に従事している個人の問題でもなく、組織としてのシステムに問題がある例が顕著になっ
ている傾向が見て取れる。そのため、組織全体を通じた技術的・個人的・管理的・体制的要因の相
互関係から事故防止を図るといった、組織要因からのアプローチが注目を浴びている。
したがって、最近の産業界では、組織エラー(organizational error)という表現がよく取り沙汰
― 23 ―
されている。ヒューマンエラーを引き起こす組織レベルの背景要因の総称を組織エラーと呼ぼうと
いう考え方である。組織のシステムを巨大な氷山と例えるならば、ヒューマンエラーは単に海面上
の氷山の一角に過ぎない。つまり、それは目に見えるものなので、管理者に注目されやすい(顕在
したエラー)
。一方、組織エラーは海面下に隠れている氷山の大部分である。これらは目に見えな
い要因のため、管理者はなかなか気づかない(潜在するエラー)
。組織エラーは具体的に次のよう
な形態で組織内の各レベルに潜んでいると考えられる。
(1)ポリシー共有エラー:安全行動の理
念や方針が十分に浸透されず、形骸化していること。
(2)目標設定エラー:過酷なノルマが設定
され、作業現場の現状から乖離した目標を無理やりに達成させること。
(3)意志疎通エラー:コ
ミュニケーションチャンネルが閉塞となり、上層から下層への指示や文書など通達できず、現場か
ら成果のフィードバックや改善提案なども上層部に伝達できないこと。
(4)人的資源管理エラー:
現場の人員配置や評価基準、報酬分配などが不合理で、メンバーのモチベーションが低下してしま
うこと。
(5)リスク管理エラー:リスクの評価が実施されず、リスクの共有・低減も行われない
こと。
(6)マニュアル・文書管理エラー:マニュアルが必要に応じて更新・改善されず、現場作
業にかかわる文書の管理もずさんで、手順からの逸脱行為が常態化となる可能性を生じさせるこ
と。
(7)危機管理エラー:緊急時対応の体制が整備されず、対応方法の有効性も十分に検討され
ていないこと。
(8)教育訓練エラー:教育の体制が不十分で、教育の方針や目的が不明確であり、
内容も不適切であるため、必要な知識と技能をもつ人材が育成できないこと。
上述のような各種のエラーは組織の各階層に潜在しており、最終的に何時か何処かでヒューマン
エラーという形で顕在化し、大きな事故やトラブルを引き起こしてしまうものである。要するに、
ヒューマンエラーを有効に防ぐためには、その誘発要因である組織エラーに注目すべきであり、組
織の中に隠れている様々なリスク(落とし穴)を低減することが根本的な方法であるとの考えであ
る。組織マネジメントの視点から考えると、組織メンバーの全員が安全の問題に取り組み、安全を
優先する組織風土または組織文化を構築することによって、組織エラーを防止することが必要であ
る。最近、安全文化(safety culture)という概念が提起されているのはこのような視点に基づいた
ものに他ならない。
3.
2 安全文化というアプローチ
「安全文化」という言葉は、1
9
8
6年に発生したチェルノブイリ原発事故に対する国際原子力機関
6)
の中で初めて提唱さ
(IAEA)の調査報告書「チェルノブイリ事故の事故後検討会議の概要報告」
れた概念である。チェルノブイリ事故は、1
9
8
6年4月2
6日、旧ソ連ウクライナのチェルノブイリ村
に立地していた原子力発電所で実験中の原子炉が爆発し、近隣の地域はもちろん、東欧や北欧まで
放射性物質が拡散するという重大な事故である。この事故は、外部からの電力供給が止まった場
― 24 ―
ヒューマンエラーの特性および防止対策としての安全文化
合、タービン発電機の慣性の回転によって、どの程度、発電ができるのかという特殊な実験を行っ
ている最中に発生した。この規模の原発事故は当該事故と、残念ながら我が国で2
0
1
1年3月に発生
した福島第一原子力発電所事故の他に例がなく、原子力開発の歴史上で最悪の事故と言われている
(IAEA はレベル7;過酷事故と評価)。当初、チェルノブイリ事故の原因は「運転員の操作ミス」
とされていたが、事故後の調査が進むにつれ、運転員の操作ミスが主原因ではなく、国レベルで有
効な規制体制が確立されておらず、設計者およびプラントレベルで十分な安全解析もおこなわれ
ず、さらに、規則や手順の整備がずさんであったため、原子炉の安全特性が十分に作業者に理解さ
れていなかったなど多くの複合的な組織要因が明らかとなった。それ故に、旧ソ連社会の体質や原
子力管理組織の「安全文化の欠如」が事故の根本原因であると指摘された事故となっている。
安全文化は「安全が全てに勝る優先度を持ち、その重要性に見合った注意が確実に反映されるよ
7)
と定義されている。しかし、現場では、事前に
う働きかける組織機能と個人態度の集積である」
あらゆることを予測して事故が生じないように意を配ることは人間には不可能である。そのため、
不断に組織内のリスクを見つけ出す努力を続け、改善策を探求するという行為(それでも完全はあ
り得ないが、リスクを最小化することを求めるという意味で)を組織全体で共有化するという営み
を安全文化という言葉をもって表現しようとした概念である。先にも言及したジームズ・リーズン
は組織が安全文化を醸成するためには、次の4要素を獲得することがきわめて重要であると主張し
(1)報告する文化(reporting culture)
:自らのエラーやインシデントを隠さず報告し、
ている8)。
その情報に基づいて、事故の原因を事前に排除する努力が絶えず行われること。
(2)正義の文化
(just culture)
:安全規則違反など意図的違反を放置せず、情報提供を奨励すること。
(3)柔軟な
文化(flexible
culture)
:時には中央集権的な構造を必要に応じて分権的組織に再構成すること。
(4)学習の文化(learning culture)
:インシデントや事故データなどの情報から学び、改革する
こと。以上であるが、中でも、リーズンは「報告する文化」は安全文化の基本であると述べている。
組織のリスクを取り除くためには、職場の危険要因や違反行為、ヒヤリハット体験などの現場の情
報を集めなければならない。しかし、組織のメンバーが、
「どうせやっても何もしてくれない」
「逆
に報告したら処罰されるかもしれない」と考えていたら情報は上がってこなくて当然である。組織
の管理者とメンバーの間に強い信頼関係が存在することが、自分自身が冒したミスや職場の仲間が
冒した違反を組織に報告する前提である。また、一方、管理側にとって重要な点は、報告されたら
できるだけ早く対応し、その結果を報告者に必ずフィードバックすることである。つまり、かかる
安全文化を醸成するためには、組織や集団全体としての体制や姿勢がきわめて重要であり、安全担
当部門だけではなく全ての部門に関わりのあることとして組織全体でその構築に取り組むことが必
須条件である。
「報告する文化」と「正義の文化」
「柔軟な文化」
「学習の文化」という4つの重要
な文化が相互に作用し合うことによって初めて、組織の各階層のリスクが顕在化し、改善が模索さ
― 25 ―
れるという安全文化の成立が期待できるのである。
4. 考
察
人間の心理・行動的特性により、外部の情報(刺激)を受容するという人間の情報処理機構は「物
理的世界」をダイレクトに反映したものではなく、極めて人間的な「心理的世界」を創り上げてい
る。それ故に、知覚段階では、見間違い、聞き間違い、などのエラーが発生し、また、認知の段階
では、外部の情報を自分自身が持っている知識や経験、期待、欲求などに基づいて処理するため、
知識や経験の不足、先入観、あるいは過去の成功体験などによる思い込みや勘違いなどのエラーが
しばしば発生することになっている。厄介なことには、このような認知エラーは、当面する状況の
意識外に在るため、行動のネガティブな結果が現れないと、なかなか気づかれないという特徴を持
つ。つまり、人間の知覚→認知→判断→行動の心理的情報処理プロセスには、何処でも何時でもエ
ラー発生のリスクが潜んでいることになる。端的に言えば、エラーを起こすのは人間の基本特性で
ある。
産業組織の現場で、しばしば耳にする概念に、ヒューマンエラーに対する二つの誤った考え方が
ある。その一つは、ヒューマンエラー宿命論である。具体的には、人間はエラーを冒す動物である。
だから仕方がない、何もできない、だから諦めようという態度である。もう一つは、ヒューマンエ
ラー責任論である。エラーを起こした本人の責任を追及し、罰を与えることによって注意を喚起さ
せるという対策系に潜む考え方である。すでに理解されたことと思うが、原因論としての宿命論は
もちろんヒューマンエラー防止に何の役にも立たないし、対策立案に関しての責任論もまた科学的
であるとは言えない。事故の当事者に問題有りとして、事故当事者を罰したり、解雇したりするこ
とによって問題解決を図るのでは、いつまでたっても事故は無くならない。人間は、その立場にな
れば、誰でも事故を起こす可能性を内包しているのである。事故の責任を確定して終わらせるので
はなく、積極的に事故発生の根本原因を追究するのがサイエンスに基づく考え方である。
図4に示すように、職場では、個人は組織のサポート(仕組みや制度など)に支えられて働いて
いる。しかし、生物体としての人間行動はいつも恒常状態ではなく、常に揺れ(人間の特性)を持っ
ている。ヒューマンファクターに関する伝統的な研究はそのような「揺れ」を最小化することを目
的としてきたように考えられる。
しかしながら、このようなアプローチは、恐らく「神の手に委
ねること」しかできない営みに違いないと考える。この立場に立てば、われわれ人間に可能な手段
とは、人間が構築した「組織要因」を制御することの他にはない。
「われわれ人間が作った組織要
因であるからには」制御できることに疑いはない。このように考えられたシステム(安全文化)の
コントロール下では、たとえ人間がエラーを冒しても、最悪の場合でもそれはニアミスに留まり、
― 26 ―
ヒューマンエラーの特性および防止対策としての安全文化
図4 安全マネジメントの考え方
大きな事故に至らないことが自明のこととして見えてくる。要するに、一般的にヒューマンエラー
だと表現されている事象とは、実は個人の不適切な行動の結果ではなく、組織システムの管理上の
不備にその因を求めるべきものである。組織の安全管理システムを如何に改善するのかが安全マネ
ジメントの最大の課題であるとしておきたい。
最近では、安全文化という概念は、発端である原子力産業界にとどまらず、他の産業界でも徐々
に受け入れられて来ている。しかしながら、安全文化に関する研究はと言えば、未だに定義の理解
や説明に留まっており、その具体化の方法論的研究には、未だしの感がある。定義はともかくも、
組織体として安全性を向上させるにはどうすべきであるのかという方法論の具体化が今や最重要課
題である。たしかに、今日では、多くの産業界において、事故を有効に防止するためには、安全文
化を醸成することが必要であると認識されてはいるが、実際にそれを現実化するための有効な方法
はなかなか見つからないという現状がある。その最大の原因は安全施策を組織の文化にするという
概念の抽象性にあるのではなかろうか。筆者らは、この課題をブレークスルーするために、現在、
安全文化の「可視化」を図るべく、現場で誰にでも分かりやすい文化の評価ツールの開発に意を注
いでいる。その結果がまとまり次第、またしかるべき方法によって公開する予定である。
【引用参考文献】
1) 経済産業省『産業事故調査結果の中間取りまとめ』経済産業省,2
0
03
― 27 ―
2) リーズン,J.
(林喜男監訳)
『ヒューマンエラー−認知科学的アプローチ』海文堂,1
9
9
4(Reason, J., 1990. Human Error, Cambridge University Press)
3) 向井希宏・蓮花一己(編)
『現代社会の産業心理学』福村出版,1
9
9
9
4) Miller, D. P. & Swain, A. D., Human Error and Human Reliability, In G. Salvendi (ed.) Handbook of Human Factors, Wiley-Interscience, 1987, pp.219−250
5) Sander, M. S. & McCormick, E. J., Human Factors in Engineering and Design, Sixth edition, McGraw−Hill.
6) 国際原子力機関(IAEA)
『チェルノブイリ事故の事故後検討会議の概要報告』INSAG−1, 1986
7) 国際原子力機関(IAEA)
『セイフティ・カルチャ 国際原子力安全諮問グループ報告』IAEA 安全シリーズ,
No.75−INSAG−4, 1991
8) リーズン,J.(塩見弘監訳)
『組織事故―起こるべくして起こる事故からの脱出』日科技連,1
9
9
9(Reason, J.
1997. Managing the Risks of Organizational Accidents, Ashgate Publishing Limited)
9) 芳賀
繁『失敗のメカニズム−忘れ物から巨大事故まで』日本出版サービス,2
00
0
10) 井上枝一郎(編著)
『心理学の理解』労働科学研究所出版部,2
0
01
11) 井上枝一郎(編著)
『心理学と産業社会とのかかわり』八千代出版,2
0
0
4
12) 大山
要
正・丸山康則(編)
『ヒューマンエラーの科学』麗澤大学出版会,2
00
4
約
昨今、多くの産業界では、ヒューマンエラーによる事故やトラブルが多発している。安全に仕事
を進めるために、ヒューマンファクターの視点から防止対策を検討することが重要であると認識さ
れている。本研究では、人間の知覚や認知、判断という心理・行動的特性から事故を引き起こす
ヒューマンエラーのメカニズムについて分析を行い、組織におけるヒューマンエラーの防止対策と
して安全文化の醸成を提案した。さらに、今後の課題として安全マネジメントの考え方と安全文化
の具体化について考察した。
― 28 ―