专利摘要:

公开号:WO1991014226A1
申请号:PCT/JP1991/000334
申请日:1991-03-12
公开日:1991-09-19
发明作者:Nobuo Watanabe;Akira Kawamura;Ryusuke Masuoka;Yuri Owada;Kazuo Asakawa;Shigenori Matsuoka;Hiroyuki Okada
申请人:Fujitsu Limited;Fujifacom Corporation;
IPC主号:G06N3-00
专利说明:
[0001] 明 細 発 明 の 名 称
[0002] ニューロ · フ ア ジィ 融合データ処理システム 技 術 分 野
[0003] 本発明は適応的なデータ処理を分りやすい実行形 式に従って実行する階層ネ ッ ト ワーク構成のデータ 処理システムに係り、 さ らに詳し く は、 構築対象の データ処理機能を高精度、 かつ短期間に構築するこ とを可能とするために、 フア ジィ とニューロを融合 させた階層型ネ ッ ト ワーク構成のニューロ · フ ア ジ ィ融合データ処理システムに関する。 背 景 技 術
[0004] 従来の逐次処理コ ン ピュータ (ノ イ マ ン型コ ン ビ ユータ) では、 使用方法や環境の変化に応じてデー タ処理機能を調節する こ とが困難であるので、 バタ 一ン認識や適応フ ィ ルタ等の分野を中心に、 新たに 階層ネ ッ ト ワーク構成による並列分散処理方式に従 う適応的なデータ処理装置が提案されてきている。 この階層ネ ッ ト ワーク構成のデータ処理装置では、 明示的なプログラムを作成するこ とな く 、 学習用に 用意された入力信号 (入力パター ン) の提示に対し て出力されるネ ッ ト ワーク構造からの出力信号 (出 力パター ン) 力、'、 教師信号 (教師パターン) と一致 するべく所定の学習アルゴリ ズムに従って階層ネッ トワーク構造の内部結合の重み値を決定していく こ とになる。 そして、 この学習処理により重み値が決 定されると、 想定していなかった入力信号が入力さ れる こ とになつても、 この階層ネ ッ ト ワーク構造か らそれらしい出力信号を出力する という "柔らかい データ処理機能が実現されることになる。 この階層ネ ッ トワーク構成のデータ処理装置では. 学習信号が得られれば機械的に内部結合の重み値を 決定できるという利点があるものの、 その重み値に より実現されるデータ処理内容が理解し難いという 性質を有している。 これから、 階蘑ネッ トワーク構 成のデータ処理装置の利用を高めるようにするため には、 このデータ処理内容が理解し難いという点を 解消できるような手段を用意してい く必要がある。 そして、 この階層ネ ッ トワーク構成データ処理装置 の実用制御を高めてい く ために、 所望のデータ処理 を短期間かつ高精度で構築できるような手段を用意 してい く必要があるのである。
[0005] 階層ネ ッ トワーク構成をとるデータ処理装置では, 基本ュニッ トと呼ぶ一種のノー ドと、 内部状態値に 相当する重み値を持つ内部結合とから階層ネ ッ トヮ ークを構成している。 第 1図に、 基本ュニッ ト 1 の 基本構成を示す。 この基本ュニッ ト 1 は、 多入力— 出力系となっており、 複数の入力に対し夫々の内部 結合の重み値を乗算する乗箕処理部 2 と、 それらの 全乗算結果を加算する累算処理部 3 と、 この累算値 に非線型の閻値処理等の閬数変換処理部を施して一 つの最終出力を出力する関数変換処理部 4 とを備え る。
[0006] h層を前段層とし i 層を後段層とすると、 i 層 i 番目の基本ュニ ッ ト 1 の累箕処理部 3では下記の(1) 式の演箕を実行し、 関数変換処理部 4では例えば下 記の (2)式の閽値濱箕処理を実行するよう処理する。
[0007] P i = ∑ y Ph W i h -- (1) h
[0008] y pi = 1 / ( 1 +exP ( - x Pi + ^ i ) ) …- -. (2) 但し、
[0009] h : h層のュニッ ト番号
[0010] P : 入力信号のパターン番号
[0011] Θ i i 暦の i 番ユニ ッ トの閾値
[0012] Wi h ίι 一 i層間の内部結合の重み値
[0013] y ph P番目パターンの入力信号に対する h層の h番ュニ ッ 卜からの出力
[0014] そして、 階層ネ ッ トワーク構成データ処理装置で は、 このような構成の多数の基本ユニッ ト 1 が、 入 力信号値をそのまま分配して出力する入力ュニッ ト 1 ' を入力層として、 第 2図に示すように階層的に 接続されることで階層ネ ッ トワークを構成して、 入 力信号を対応する出力信号に変換するという並列的 ! なデータ処理機能を発揮することになる。
[0015] 階層ネッ トワーク構成のデータ処理装置では、 デ ータ変換機能を規定するところの階層ネ ッ トワーク 構造の重み値を学習処理により求めてい く必要があ るが、 この学習処理のアルゴリ ズムと して、 特にバ ッ クプロバゲ一ショ ン法と呼ばれるアルゴリ ズムが その実用性の高さから注目されている。 バックプロ パゲーシヨ ン法では、 階層ネ ッ トワークの重み値 W ihと閡値 0 i とを誤差のフィー ドバックにより適応0 的に自動調節して学習することになる。 (1), (2) 式 から明らかなように、 重み値 Wihと閻値 0 i との調 節は同時に実行される必要があるが、 この作業は相 互に干渉する難しい作業となる。 そこで、 入力側の h層に常に " 1 " を出力する とともにその出力に対 5 して閽値 6 i を重み値として割り付けるュニッ トを 設けることで、 閾値 S i を重み値 Wihの中に組み込 んで閻値 0 i を重み値として扱うようにすることを した。 このようにすることで、 上述の(1), (2)式は、 P I = y Ph W i h (3)
[0016] h
[0017] 0 y pi = 1 / ( 1 +exp ( - x Pi ) ) - (4) で表されることになる。
[0018] バックプロバゲ一ショ ン法では、 階層ネ ッ トヮ一 クが第 2図に示す h層一 i 層一 j層という 3層構造 をもつもので説明するならば、 学習用の入力信号が5 提示されたときに出力される出力層からの出力信号 y P jと、 その出力信号 y P jのとるべき信号である教 師信号 d Pjとが定まると、 先ず最初に、 出力信号 y P . と教師信号 d P jとの差分値
[0019] 〔 d pj- y Pj) を算出し、 次に、
[0020] a y P j ( 1 - y P d ( d P d - y P i ) - (5) を算出して、 続いて、
[0021] Δ Wit (t) = ε ∑ aPj y pi + 4 Δ W ji ( t - 1 )
[0022] P
[0023] (6) に従って、 i層— j 層間の重み値の更新量 A Wd i ( t ) を算出する。 こ こで、 t は学習回数を表して いる。
[0024] 続いて、 算出した orPjを用いて、 先ず最初に、 j5 P i = y p i ( 1 - y p i ) ∑: arpjWji ( t - 1 )
[0025] (7) を算出し、 次に、
[0026] Δ Wih(t) = ε ∑ / P j y ph+ Δ Wih ( t - 1 )
[0027] P
[0028] (8) に従って、 h層— i 層間の重み値の更新量 Δ Wih ( t ) を算出する。
[0029] 続いて、 この算出した更新量に従って次の更新サ ィ ク ルのための重み値
[0030] W ji (t) - W ji (t- 1 ) + Δ W d i (t)
[0031] Wih(t) = Wih ( t - 1 ) + Δ Wih(t)
[0032] (8a) を決定してい く方法を繰り返してい く ことで、 学習 用の入力信号が提示されたときに出力される出力層 からの出力信号 y Pjと、 その出力信号 y Pjのとるベ き信号である教師信号 d Pjとが一致することになる 重み値 Wji、 Wi hを学習するよう処理している。
[0033] そして、 階層ネッ トワークが g層一 h層一 i 層— j層という 4層構造をもつときには、 最初に、
[0034] r Ph = y ph ( 1 - y ΡΗ) ∑ / Pi Wih ( t - 1 )
[0035] - ----- - (9) を算出し、 次に、
[0036] 厶 Whg(t) = ε ∑ r Ph y 十 C 厶 Wh9 ( t — 1 )
[0037] P
[0038] -- -- -…-- 00) に従って g層— h層間の重み値の更新量 A W h9 ( t ) を箕出する というように、 前段側の層間の重み値の 更新量 を、 出力側の後段から求まる値とネ ッ ト ワーク出力データとを使いながら決定してい く よう に処理するのである。
[0039] こ こで、 基本ュニ ッ ト 1 の関数変換処理部 4が線 型変換を実行する場合には、 上述の (5)式は、
[0040] ex t>5 = V d p j - y p j )
[0041] (11) となり、 上述の (7)式は、
[0042] j5 Pi = ∑ PjW ji ( t — 1 )
[0043] Q2) となり、 上述の (9)式は、
[0044] r Ph = ∑: ^ PJ W ji ( t 一 1 ) OS) となる。
[0045] このようにして学習された重み値を階層ネ ッ トヮ —クの内部結合に割り付けてい く ことで、 階層ネ ッ トワーク構成データ処理装置では、 学習用の入力信 号が入力層に提示される時に出力層から所望の教師 信号を出力するこ とになるよう処理すると共に、 想 定していなかった入力信号が入力されることになつ ても、 この階層ネ ッ トワーク構造からそれらしい出 力信号を出力するという適応的なデータ処理を実行 することになる。
[0046] 確かに、 階層ネ ッ トワーク構成データ処理装置で は、 適応的なデータ処理を実行する望ましい入出力 特性のデータ変換機能を実現できるよう になるとと もに、 新たに学習信号が得られるならば、 より高精 度となる内部結合の重み値を機械的に学習できるよ うになるという大きな利点が得られるものの、 階層 ネ ッ トワーク構造内部で実行しているそのデータ変 換の内容が理解できないという問題点があった。 そ して、 学習信号以外のデータの入力に対して出力信 号を予測できないという問題点があった。 これから. 例えば、 階層ネ ッ トワーク構成データ処理装置に従 つて制御対象を制御するような場合において、 正常 に動作している ときにあっても、 オペレータが心理 的な不安を抱く という問題点があるとともに、 異常 事態への対応が困難になるという問題点があつた。 更に、 階層ネッ トワーク構成データ処理装置を構築 するためには学習信号が不可欠であるため、 十分な 数量の学習信号が得られないときには、 所望のデー タ処理機能を実現することができないという問題点 ¾あった。
[0047] 一方、 近年、 モデル化が非常に困難な制御対象に 対して、 人間の判断等のあいまいさを舍む制御アル ゴリ ズムを i f - then 形式で表現し、 フア ジィ推論に 従ってこの制御アルゴリ ズムを実行してい く ことで- 検出される制御状態量から制御操作量を算出して制 御対象を制御していく フア ジィ制御器が実用化され つつある。 このようなフアジィ制御器で実現されて いるフア ジィ推論は、 入岀カ信号の閬係を場合分け して、 それらをメ ンバシ ッ プ関数と呼ばれる属性情 報に従ってあいまいに結びつけることで、 複雑なデ —タ処理機能の実行モデルを確立することを可能に している。 このフア ジィ推論で確立されるフア ジィ モデルは、 比較的容易に確立できるという利点はあ るものの、 メ ンバシップ関数の正確な閬数値の決定 や、 メ ンバシップ関数間の正確な結合関係の決定が 機械的に実現することができず、 所望のデータ処理 機能を実現するまでに多大な労力と時間を要するこ とになるという欠点があることが知られている。 発 明 の 開 示
[0048] 本発明はこのような背景に鑑みてなされたもので あって、 階層ネ ッ トワーク構成データ処理装置とフ ア ジィ モデルとを融合的に結び付けることで、 デー タ処理機能の精度の向上を容易に実現できるように しつつ、 その実行形式が分かり易いものとなる階層 ネ ッ トワーク構成データ処理装置を提供するととも に、 その階層ネ ッ トワーク構成データ処理装置を使 用して構築対象のデータ処理機能を高精度かつ短期 間に構築できることを可能とならしめるデータ処理 システムの提供を目的とするものである。
[0049] 第 3図は本発明の原理構成図である。
[0050] 図中、 1 0 はデータ処理対象の処理モデルをファ ジィ推論形式で記述するフア ジィ モデルであって、 入力信号に関しての言語的なあいまいな表現を数値 化する前件部メ ンバシ ップ関数と、 出力信号に関し ての言語的なあいまいな表現を数値値する後件部メ ンバシッブ関数と、 それらのメ ンバシ ップ関数の結 合関係を i f- then 形式で展開するルールとに従って. 複雑なデータ処理を実行するデータ処理対象の処理 モデルを記述する ものである。 このフア ジィ モデル 1 0 は、 ラフなモデルであるならば比較的容易に確 立できるという利点はあるものの、 メ ンバシ ップ関 数の正確な関数値の決定や、 正確なルール記述の決 定が難しいという問題点を有している。 1 1 は適応型データ処理装置であって、 第 2図に 示すような完全結合する階層ネ ッ トワーク構造に従 つて所望のデータ処理を実行するものであり、 本発 明ではこれを純ニューロと呼ぶことにする。
[0051] この適応型データ処理装置 1 1 は、 上述のバッ ク
[0052] • プ口バゲ一ショ ン法等により機械的に階層ネ ッ ト ワーク構造の内部結合に割り付けられる内部状態を 学習できるという優れた学習能力を有するものの、 そのデータ変換機能の内容が全く理解できないとい う問題点を有している。
[0053] 第 3図において、 ルール部プリ ワイ ヤニューロ 1 2、 およびルール部全結合ニュ一口 1 3 は本発明に 特徴的なネ ッ トワーク構成データ処理システムであ る。 第 4図はルール部プリ ワイ ヤニューロ 1 2、 お よびルール部全結合ニューロ 1 3 の基本構成ブロ ッ ク図である。 同図において、 ルール部プリ ワイヤ二 ユーロおよびルール部全結合ニューロの全体、 また は後件部メ ンバシッブ関数実現 · 非フア ジィ化部 1 8の最終出力側の一部を除いた部分は階層型のニュ 一ラルネ ッ ト ワークで構成され、 第 4図はその階層 型ニューラルネ ッ トワークの入力側からネ ッ ト ヮー クの各部分の作用によってネ ッ トワークの各部を区 分したものである。
[0054] 第 4図において、 入力部 1 5 は、 例えば制御対象 の制御状態量を示す 1 つ以上の入力信号を受け取る, 前件部メ ンバシップ関数実現部 1 6 は、 入力部 1 5 を介して分配される 1 つ以上の入力信号に対応して, 1つ以上の前件部メ ンバシ ッブ関数の適合度を表わ すグレード値を出力する。
[0055] ルール部 1 7 は 2層以上の階層型ニューラルネッ トワーク構成されることが多く、 前件部メ ンバシ ッ プ関数実現部 1 6から出力される前件部メ ンバシ ツ プ関数のグレード値を用いて、 1 つ以上の出力信号 に対応する 1つ以上の後件部メ ンバシップ関数の拡 大、 または縮小率をフア ジィルールのグレー ド値と して出力する。
[0056] 後件部メ ンバシッブ関数実現 · 非フアジィ化部 1 8 は、 ルール部 1 Ίから出力される後件部メ ンバシ ップ関数の拡大、 または縮小率を用いて、 後件部メ ンバシップ関数の拡大、 または縮小を行った後に、 非フア ジィ化の計算を行い、 出力信号を出力する。 この非フア ジィ化の計算は一般にフア ジィ推論の最 終ステッブにおいて行われる重心計算を指すものと して本発明を説明する。
[0057] 第 5図はルール部プリ ワ イ ヤニューロの代表例の 構成ブロ ック図である。 同図は第 4図とほぼ対応す るが、 第 4図の後件部メ ンバシップ関数実現 · 非フ ァ ジィ化部 1 8が後件部メ ンバシ ップ関数実現部 1 8 aおよび重心計算実現部 1 8 b とによつて構成さ れている点が異なっている。 同図において、 重心計 算実現部 1 8 b内の重心算出装置 2 7を除いてルー ル部プリ ワイ ヤニューロは階層型ニューラルネ ッ ト ワークによつて構成されている。 なお、 前件部メ ン バシップ関数実現部 1 6、 ルール部 1 7、 後件部メ ンバシ ッブ関数実現部 1 8 a及び重心計算実現部 1 8 bのそれぞれの入力ュニッ トは前層の対応するュ ニッ トに接続されているが、 図示は省略されている。 第 5図において、 前件部メ ンバシ ップ関数実現部 1 6内の線形関数ュニッ ト 2 2 a〜 2 2 d は前件部 メ ンバシ ッ プ関数のグレード値を出力する。 例えば ユニッ ト 2 1 a は命題 「入力 Xが小さい」 というメ ンバシ ップ関数の適合度を表わすグレー ド値を出力 する。
[0058] ルール部 1 7内のシグモイ ド関数ュニッ ト 2 3 a 〜 2 3 e は、 フ ア ジ ィ モデルのルールの記述に従つ て、 前件部メ ンバシ ップ関数実現部 1 6の出力ュニ ッ ト 2 2 a〜 2 2 e とルール部の出力ュニッ ト 2 4 a , 2 , 2 4 c とを結合する。 例えばフ ア ジィ モデルのルール 1 ^、
[0059] if (X is small)and(Y is small) then Z is middle である時には、 ユニッ ト 2 2 a , 2 2 d と 2 3 a、 および 2 3 a と 2 4 との間が結合され、 例えば 2 2 b , 2 2 c , 2 2 eのそれぞれとユニ ッ ト 2 3 a との間の結合は不要となる。
[0060] ルール部 1 7の出力ユニッ ト 2 4 a , 2 4 b , 2 4 c は後件部メ ンバシップ関数の拡大、 または縮小 率を出力する。 例えば、 ュニッ ト 2 4 bは出力 「 Z が middle 」 という後件都メ ンバシッブ閬数の拡大、 または縮小率を出力し、 ユニッ ト 2 4 a , 2 b , 2 4 c の出力を用いて後件部メ ンバシ ップ関数実現 部 1 8 a内の線形ュニッ ト 2 5 a ~ 2 5 nによって 後件部メ ンバシ ップ関数の拡大、 または縮小結果が 出力され、 これらを用いて重心決定要素出力装置 2 6内の 2つの線型ユニッ ト 2 6 a、 2 6 bによって 重心計算のための 2つの重心決定要素 z a , z b が 出力され、 これらを用いて重心算出装置 2 7 によつ て重心値としてのシステムの出力 Zが得られる。
[0061] 第 5図では、 例えば前件部メ ンバシップ関数実現 部 1 6 の内部では層間は完全結合されておらず、 前 件部メ ンバシ ッブ関数に対応して結合されている。 ファ ジィ モデルのルールが明確である場合には、 ル —ル部プリ ワイ ヤニューロを用いる ことができる。 前述のようにルール 1が
[0062] 11 (X is smal 1) and (Y is sma丄 1_) then L is middle である場合には、 ユニッ ト 2 2 b , 2 2 c, 2 2 e のそれぞれと 2 3 a との間の結合は不要となる。 こ のよう に前件部メ ンバシ ップ関数実現部 1 6 とルー ル部 1 7 との間、 ルール部 1 7 の内部、 ルール部 1 7 と後件部メ ンバシップ関数実現部との間が、 ファ ジィモデルのルールに従って必要な部分のみ結合さ れているデータ処理システムがルール部プリ ワイヤ ニュ一 ίめる。
[0063] 第 3図において、 フア ジィ モデル 1 0のメ ンバシ ップ関数のみならずルールも明確である場合には、 プリ ワイヤ、 即ち必要な結合のみを持つ階層型ニュ —ラルネ ッ トワークを用いることにより、 フアジィ モデル 1 0をルール部プリ ワイ ヤニューロ 1 2に変 換するこ とができ、 ルールが必ずしも明確でない場 合には、 例えば前件部及び後件部メ ンバシップ関数 実現部のみがプリ ワイヤされたルール部全結合ニュ 一口 1 3にフア ジィ モデル 1 0を変換する こ とがで §る。
[0064] ここではルール部全結合ニュ一口であるので前件 部メ ンバシップ関数実現部 1 6 の出力ユニッ ト 2 2 a〜 2 2 e , ルール部のユニッ ト 2 3 a〜 2 3 e、 ルール部の出力ュニッ ト 2 4 a〜 2 4 c のそれぞれ で構成される層の間は完全結合となっている。
[0065] 第 5図において、 前件部メ ンバシ ップ関数実現部 1 6の出力ュニッ ト 2 2 a〜 2 2 e とルール部 1 7 のユニッ ト 2 3 a〜 2 3 e との間、 ルール部のュ二 ッ ト 2 3 a〜 2 3 e とルール部の出力ュニッ ト 2 4 a , 2 4 b , 2 4 c との間は完全結合されており、 これが階層ネ ッ トワーク構成データ処理システムを 全結合ニューロと呼ぶ理由である。
[0066] 更に、 例えばフア ジィ モデル 1 0の入出力データ を適応型データ処理装置、 すなわち各隣接層間が完 全結合された階層型ニュ一ラルネ ッ ト ワークである 純ニューロ 1 1 に学習させることにより、 フア ジィ モデル 1 0を純ニューロ 1 1 に変換することができ る。
[0067] 次に適応型データ処理装置、 すなわち純ニューロ
[0068] 1 1 に、 例えば制御対象の入出力データを学習させ- 学習終了後に純ニューロ 1 1 内で影響度の小さい結 合、 例えば重みの値が小さい結合を切断、 すなわち ネ ッ ト ワークの構造を変換する こ とによってルール 部プリ ワイヤニューロ 1 2、 またはルール部全結合 ニューロ 1 3 に純ニューロ 1 1 を変換する こ とがで きる。 そしてルール部プリ ワイ ヤニューロ 1 2 の構 造を調べることにより、 例えば前件部メ ンバシ ップ 関数、 後件部メ ンバシ ッ プ関数、 フア ジィ ルール等 のフア ジィ モデル 1 0が抽出され、 またルール部全 結合ニューロ 1 3 の構造を調べるこ とによって前件 部メ ンバシ ップ関数、 後件部メ ンバシ ップ関数のフ ア ジィ モデル 1 0が抽出されることになる。 図面の簡単な説明
[0069] 第 1図は基本ュニ ッ トの基本構成図、
[0070] 第 2図は階層ネ ッ トワークの基本構成図、 第 3図は本発明の原理構成図、
[0071] 第 4図はルール部プリ ワイ ヤニューロ, ルール部 全結合ニュー ロ の基本構成を示すプロ ッ ク図、 第 5図はルール部プリ ワイ ヤニューロの代表例の 構成を示すブロ ック図、
[0072] 第 6図はファジィルールの実施例を示す図、 第 7図は第 6図のフア ジィ ールに対応するプリ ヮ ィ ャニューロの実施例を示す図、
[0073] 第 8図はメ ンバシップ関数の説明図、
[0074] 第 9図 ), (b)は前件部メ ンバシッブ閬数のグレ一 ド値の算出機能の説明図 (その 1 ) 、
[0075] 第 1 0図 ), (b)は前件部メ ンバシ ッ プ関数のグレ ー ド値の算出機能の説明図 (その 2 ) 、
[0076] 第 1 1図 (a), ( )は後件部メ ンバシ ッ プ関数のダレ 一ド値の出力機能の説明図、
[0077] 第 1 2図は論理演算を実現するニュ ー ロ ンの重み としきい値の設定法の説明図、
[0078] 第 1 3図は第 1 2図の設定法を用いたルール部の 実施例を示す図、
[0079] 第 1 4図 (a), (b)は X , , と χ 2 との論理積演算を 示す図、
[0080] 第 1 5図 )〜 (h)は 2入力のフア ジィ論理演算を示 す図、
[0081] 第 1 6図は第 Γの近似対象のメ ンバシ ップ関数を 示す図、
[0082] 第 1 7図は感度の上限を明確にする近似を求める 為の'処理実施例のフローチャ ー ト、 第 1 8図は y = m (x) と y = tanh (wx)のグラフを 示す図、
[0083] 第 1 9図は誤差絶対値の積分を最小とする近似を 求める処理実施例のフ α—チヤ一 ト、
[0084] 第 2 0図は誤差の 2乗の積分を最小とする近似を 求める為の処理実施例のフローチャー ト、
[0085] 第 2 1図は最大誤差を最小にする近似を求める為 の処理実施例のフローチヤ一 ト、
[0086] 第 2 2図は第 2 の近似対象のメ ンバーシップ関数 を示す図、
[0087] 第 2 3図は第 2 2図のメ ンバシ ップ関数の近似実 現の為の 3層ネ ッ トワークを示す図、
[0088] 第 2 4図は感度上限明確化の近似を求める為の重 みと閻値値決定処理実施例のフ ローチャー ト、
[0089] 第 2 5図は最大誤差を最小とする近似を求める為 の重み及び閾値値決定処理実施例のフローチャー ト , 第 2 6図は特殊なフア ジィルールの例を示す図、 第 2 7図は第 2 6図のフア ジィルールに対応する ルール部以降の階層ネ ッ トワーク の実施例を示す図- 第 2 8図は重心決定要素出力装置の基本構成を示 すブロ ック図、
[0090] 第 2 9図は重心算出方法のフ ローチャー ト、 第 3 0図は重心決定要素出力装置の実施例の構成 ブロ ック図、
[0091] 第 3 1図 (a) , (b)は重心決定要素出力の第 1 の実施 例を示す図、
[0092] 第 3 2図 (a) , (b)は重心決定要素出力の第 2の実施 例を示す図、
[0093] 第 3 3図 (a) , (b)は教師信号決定装置の基本構成を 示すブロ ック図、
[0094] 第 3 4図は教師信号決定装置の第 1 の実施例の構 成を示すプロ ック図、
[0095] 第 3 5図は教師信号決定装置の第 2 の実施例の構 成を示すブロ ッ ク図、
[0096] 第 3 6図 (a) , (b)は教師信号計算装置に於いて用い られる計算方法の実施例を示す図、
[0097] 第 3 7図 (a) > (b)は教師信号出力の実施例を示す図. 第 3 8図は重心計算実現部としての階層型ニュー ラルネ ッ ト ワークの実施例を示す図、
[0098] 第 3 9図はフア ジィ推論部を舍む重心岀カ装置の 全体構成を示すブロ ック図、
[0099] 第 4 0図はニューラルネッ トワーク制御部、 重心 学習装置の詳細構成を示すブロ ック図、
[0100] 第 4 1図は重心学習装置の処理実施例のフローチ ヤー ト、
[0101] 第 4 2図は重心出力装置の出力例を示す図、 第 4 3図は重心計算実現部としての割算ネロワ一 クの説明図、
[0102] 第 4 4図は割箕ネ ッ トワークの実施例を示す図、 第 4 5図はネ ッ ト ワーク構造変換及びフア ジィ モ デル抽出の概念を示す図、
[0103] 第 4 6図は純ニューロの構成を示す図、
[0104] 第 4 7図はルール部全結合ニューロ のュニッ 卜 の みによる構成を示す図、
[0105] 第 4 8図はルール部プリ ワ イ ヤニューロ のュニッ トのみによる構成を示す図、
[0106] 第 4 9図はルール部プリ ワ イ ヤニューロ のフ ア ジ ィルール抽出処理前の状態を示す図、
[0107] 第 5 0図はルール部プリ ワ イ ャニューロ のルール 部を論理素子化した状態を示す図、
[0108] 第 5 1図はルール部のュニッ トを望ましいフア ジ ィルール数だけ残した状態を示す図、
[0109] 第 5 2図はルール部全結合二ユーロのフ ア ジ ィ ル —ル抽出処理前の状態を示す図、
[0110] 第 5 3図はルール全結合のニューロの前件部メ ン バシップ関数出力部のュニッ トをグループ化した状 態を示す図、
[0111] 第 5 4図はルール都全結合ニューロの前件部メ ン バシッブ閔数出力部とルール部間の結線を簡略化し た状態を示す図、
[0112] 第 5 5図ばルール部全結合ニューロのルール部と 後件部メ ンバシ ッブ関数出力部間の結線を簡略化し た状態を示す図、
[0113] 第 5 6図はルール部全結合ニューロ のルール部ュ ニッ トを論理素子化した状態を示す図、 第 5 7図はルール部全結合ニューロ のルール部ュ ニッ トをフア ジィルール数だけ残した状態を示す'図 第 5 8図は純ニューロ の実施例を示す図、 第 5 9図は第 5 8図の純ニューロに与えられる学 習パターンの例を示す図、
[0114] 第 6 0図は第 5 8図の純ニューロの学習後の結線 の重みを示す図、
[0115] 第 6 1図は第 5 8図の純ニューロに対する変換手 続き(1 ) を示す図、
[0116] 第 6 2図は第 5 8図の純ニューロに対する変換手 繞き(2) を示す図、
[0117] 第 6 3図は第 5 8図の純ニューロに対する変換手 続き(3) を示す図、
[0118] 第 6 4図は第 5 8図の純ニューロに対する変換手 続き(4) を示す図、
[0119] 第 6 5図は第 5 8図の純ニューロに対する変換手 続き(5) を示す図、
[0120] 第 6 6図は第 5 8図の純ニューロから変換された ルール部プリ ヮィャニューロを示す図、
[0121] 第 6 7図は第 6 6図における第 5層の各ユニッ ト に対応する メ ンバシ ッ プ関数を示す図、
[0122] 第 6 8図は第 6 6図のル一ル部プリ ワイヤニュー 口の結線の重みを示す図、
[0123] 第 6 9図は第 5 8図の純ニューロに対する他の変 換手続きを示す図、 第 7 0図は第 6 9図による変換後のルールプリ ヮ ィ ャニューロの構成を示す図、
[0124] 第 7 1図は第 7 0図のルール部プリ ワイ ヤニュー 口の結線の重みを示す図、
[0125] 第 7 2図はルール部全結合ニューロの実施例を示 す図、
[0126] 第 7 3図は第 7 2図のルール部全結合ニューロの 重みを示す図、
[0127] 第 7 4図はネ ッ トワーク構造変換処理実施例のフ 口一チャー ト (その 1 ) 、
[0128] 第 7 5図はネ ッ トワーク構造変換処理実施例のフ 口—チャー ト (その 2 ) 、
[0129] 第 7 6図はネ ッ トワーク構造変換処理実施例のフ ローチャー ト (その 3 ) 、
[0130] 第 7 7図はネ ッ トワーク構造変換処理実施例のフ ローチャー ト (その 4 ) 、
[0131] 第 7 8図はネッ トワーク構造変換処理実施例のフ ローチャー ト (その 5 ) 、
[0132] 第 7 9図はニューロ · フアジィ融合データ処理シ ステムの全体構成を示すプロ ック図、
[0133] 第 8 0図は後件部メ ンバシッブ関数実現部の初期 化例を示す図、
[0134] 第 8 1図は重心計算部の初期化例を示す図、 第 8 2図は学習処理装置の詳細構成を示すプロ y ク図、 第 8 3図はフアジィルール抽出部の詳細構成を示 すブロ ック図、
[0135] 第 8 4図はファ ジィ モデル抽出処理実施例のフ口 一チャー ト、
[0136] 第 8 5図 )〜 (f)はュニッ トにより実行される論理 演算の例を示す図、
[0137] 第 8 6図 (a)〜(e)は論理演算管理部の管理データ例 を示す図、
[0138] 第 8 7図は論理演算入出力特性情報管理部の管理 データ例 (その 1 ) を示す図、
[0139] 第 8 8図は論理演算入出力特性情報管理部の管理 データ例 (その 2 ) を示す図、
[0140] 第 8 9図はルール部プリ ワイヤニューロにおける ルール部ュニッ 卜の論理素子化処理の説明図、 第 9 0図は第 1 の学習方法の構成図、
[0141] 第 9 1図は第 2 の学習方法の構成図、
[0142] 第 9 2図は第 3の学習方法の構成図、
[0143] 第 9 3図は第 4 の学習方法の構成図、
[0144] 第 9 4図は第 5 の学習方法の構成図、
[0145] 第 9 5図は第 6の学習方法の構成図、
[0146] 第 9 6図は第 7 の学習方法の構成図、
[0147] 第 9 7図は第 8の学習方法の構成図、
[0148] 第 9 8図は第 9 の学習方法の構成図、
[0149] 第 9 9図は第 10の学習方法の構成図、
[0150] 第 1 0 0図は学習情報の第 1実施例の学習動作フ ロー図、
[0151] 第 1 0 1 図は学習方法の第 2実施例の学習動作フ 口—図、
[0152] 第 1 0 2図は学習方法の第 3実施例の学習動作フ 口一図、
[0153] 第 1 0 3図は学習方法の第 4実施例の学習動作フ π—図、
[0154] 第 1 0 4図は学習方法の第 5実施例の学習動作フ ロー図、
[0155] 第 1 0 5図は学習方法の第 6実施例の学習動作フ ロー図、
[0156] 第 1 0 6図は学習方法の第 7実施例の学習動作フ π一図、
[0157] 第 1 0 7図は学習方法の第 8実施例の学習動作フ π一図、
[0158] 第 1 0 8図は学習方法の第 9実施例の学習動作フ 口一図、
[0159] 第 1 0 9図は学習方法の第 10実施例の学習動作フ ロー図、
[0160] 第 1 1 0図は前件部と後件部の 2つのルール部を 持つプリ ワイヤニューロの実施例の構成図、
[0161] 第 1 1 1 図はルール部プリ ワイ ヤニューロのニュ 一ロ ングループ及び結線グループの説明図、
[0162] 第 1 1 2図 )〜 (k)はフヱ一ズ ' グループ及びグル ープ · 結線対応表の説明図、 第 1 1 3図はルール部プリ ワイ ヤニュー口の学習 処理実施例のフロー図、
[0163] 第 1 1 4図は学習処理用の装置実施例の構成図、 第 1 1 5図は学習調整器の実施例の構成図、 第 1 1 6図は重み学習処理実施例のフロー図、 第 1 1 7図は第 1 1 6図の重み学習時における各 部パラメータの説明図、
[0164] 第 1 1 8図はシユ ミ レーショ ンで想定した構築対 象のデータ処理機能が持つ入力信号の説明図、 第 1 1 9図 )〜 (d)はシユ ミ レーショ ンで生成した ファ ジィ モデルに記述されるメ ンバシ ップ関数の説 明図、
[0165] 第 1 2 0図ば生成したフア ジィ モデルが持つ入出 力信号の説明図、
[0166] 第 1 2 1図はフア ジィ モデルにより構築された階 層ネッ トワーク部の説明図、
[0167] 第 1 2 2図は第 1 2 1図の階層ネ ッ トワーク部の データ処理機能が持つ入出力信号の説明図、
[0168] 第 1 2 3図 (a) , (b)はファ ジィ モデルにより構築さ れた階層ネッ トワーク部の他の例の説明図、
[0169] 第 1 2 4図は第 1 2 3図の階層ネッ トワーク部の 学習処理に用いる学習信号の説明図 (その 1 ) 、 第 1 2 5図は第 1 2 3図の階層ネ ッ トワーク部の 学習処理に用いる学習信号の説明図 (その 2 ) 、 第 1 2 6図は第 1 2 3図の階層ネッ トワーク部の データ処理機能が持つ入出力信号の説明図、 第 1 2 7図は学習によりチューニングされたメ ン バシップ関数の説明図、
[0170] 第 1 2 8図は適応型データ処理装置の学習処理に 用いる学習信号の説明図、
[0171] 第 1 2 9図は学習により構築された適応型データ 処理装置の説明図、
[0172] 第 1 3 0図は第 1 2 9図の適応型データ処理装置 のデータ処理機能が持つ入出力信号の説明図、 第 1 3 1図はフア ジィルール生成のシュ ミ レーシ ョ ンに使用した階層ネ ッ トワーク部の説明図の説明 図、
[0173] 第 1 3 2図 )〜 (d)はフア ジィルール生成のシユ ミ レーシ ョ ンに使用したメ ンバシ ッ プ実数の説明図、 第 1 3 3図はフア ジィルール生成のシユ ミ レ一シ ョ ンに使用した学習用の制御データの説明図、 第 1 3 4図はチューニ ングのシユ ミ レ一シ ョ ンに 使用したファ ジィ制御ルールの説明図、
[0174] 第 1 3 5図はチューニ ングのシユ ミ レーシ ョ ンに 使用した制御状態量及び制御操作量の説明図、
[0175] 第 1 3 6図はチューニ ングのシュ ミ レーシ ョ ンに 使用したメ ンバーシップ関数の実現のためのパラメ ータ値とその学習データの説明図 (その 1 ) 、 第 1 3 7図はチューニ ングのシユ ミ レーシ ョ ンに 使用したメ ンバシ ップ閡数の実現の為のパラメータ 値とその説明図 (その 2 ) 、
[0176] 第 1 3 8図 (a) , (b)はチューニングのシユ ミ レ一シ ョ ンに使用した制御操作量のメ ンバシ ッブ関数の説 明図 (その 1 ) 、
[0177] 第 1 3 9図はチューニングのシュ ミ レージョ ンに 使用した制御操作量のメ ンバシップ閬数の説明図 (その 2 ) 、
[0178] 第 1 4 0図はチューンユングのシユ ミ レーショ ン に使用した階層ネ ッ トワーク部の説明図。
[0179] 第 1 4 1図はチューニングのシユ ミ レ一シヨ ンに 使用した学習用の制御データの説明図、
[0180] 第 1 4 2図 (a)〜(c)は重み値の学習によりチュー二 ングされたメ ンバシップ関数の説明図、
[0181] 第 1 4 3図はチューニングのシユ ミ レーショ ンに より求められる重み値の学習データの説明図、 第 1 4 4図は基本ュニッ トのハー ドウェアによる 構成の実施例を示す図、
[0182] 第 1 4 5図は階層ネ ッ トワーク部のハー ドウェア 構成の実施例を示す図である。 発明を実施するための最良の形態
[0183] 以下、 本発明を添付の図面を用いてより詳細に説 明する。 第 6図はフア ジィルールの実施例である。 同図は、 例えば制御状態量を示す入力 X及び Yと、 例えば制御量を示す出力 Zとの間のファ ジィルール の例であり、 ルール 1 からルール 5 までの 5 つのル ールがある。
[0184] 第 7図は第 6図のフ ァ ジィルールに対応するル一 ル部プリ ワイヤニューロの実施例である。 同図は前 件部メ ンバシッブ閬数実現部とルール部との間、 ル ール部の内部が第 6図のフ ァ ジィルールに従って結 合されたものである。
[0185] 次に第 5図において、 前件部メ ンバシップ閩数実 現部 1 6 の内部で前件部メ ンバシ ップ関数を実現す るシグモイ ド関数ュニッ ト 2 1 a 〜 2 1 dへの入力 結合の重みと閻値の設定法について説明する。
[0186] 第 8図に、 メ ンバシップ関数の一例を図示する。 前件部メ ンバシップ関数のグレー ド値の算出機能は 具体的には、 基本ュニッ ト 1 より出力される出力値 y
[0187] 1
[0188] y =
[0189] 1 十 exp — ό) X + Θ )
[0190] が第 9図 (a)に示すように、
[0191] ω < 0 , Θ < 0
[0192] であるときには、 第 8図の 「温度が低い」 というメ ンバシップ関数と類似する関数形状となり、 また、 ω > 0 , Θ > 0
[0193] であるときには、 第 8図の 「温度が高い」 というメ ンバシ ップ関数と類似する閬数形状となることに着 目して、 第 9図 (b)に示すように、 この基本ュニッ ト 1 の入力に対する重み値 ωおよび閬値 0を適切に設 定することで、 第 8図の 「温度が低い」 や 「温度が 高い」 という関数形状のメ ンバシ ッ プ関数が実現さ れることになる。
[0194] また、 2つの基本ユニッ ト 1 より出力される出力 値の差分値 y
[0195] 1
[0196] y
[0197] 1 十 exp — ω ι x + 6 l )
[0198] 1
[0199] 1 + exp (— ω 2 x + θ 2 ) が第 1 0図 (a)に示すように、 第 8図の 「温度が普通 j というメ ンバシ ップ関数と類似する関数形状となる ことに着目して、 第 1 0図 (b)に示すように、 2個の 基本ュニッ ト 1 と、 この 2個の基本ュニッ ト 1 の出 力値に重み値 " 1 " 及び "一 1 " を乗じたものを入 力とし、 かつ閾値処理部 4を備えない基本ュニッ ト 1 により構成される減算器 1 a (この構成に従い、 この 2個の基本ュニ ッ ト 1 の出力値の差分値を算出 するよう動作する) とを備えて、 この 2個基本ュニ ッ ト 1 の入力に対する重み値 , ω 2 及び閻値 Θ 2 を適切にすることで、 第 8図の 「温度が普通」 という関数形状のメ ンバシッブ関数の割付処理が実 現されることになる。
[0200] このような構成を採ることにより、 これらの基本 ユニッ ト 1 の入力値に対する重み値及び閽値を変更 することで、 その前件部メ ンバシ ップ関数の関数形 状を変更できることになる。
[0201] また、 後件部メ ンバシ ップ関数のダレ一 ド値の出 力機能は、 具体的には、 第 1 1図 (a)に示すように、 後件部メ ンバシ ップ関数を細かく区画して各区画の グレー ド値 y i を特定し、 次に、 第 1 1図 (b)に示す ように、 閻値処理部 4を備えない基本ュニッ ト 1 に より構成されるグレー ド値出力器 1 bをこのグレー ド値の個数 ( n個) 分用意して、 このグレー ド値出 力器 1 bの入力に対する重み値として " y i " を設 定することで実現される。 ここで、 第 1 1 図 (b)に示 すように、 例えばバルブ Aの開度といった同一種別 の出力、 例えば制御操作量に係る後件部メ ンバシ ッ ブ関数のグレー ド値は、 用意される同一のグレード 値出力器 1 bに入力される構成が採られる。 これら のグレー ド値出力器 1 b は、 割り付けられる制御操 作量についての縮小されたメ ンバシップ関数のグレ — ド値の関数和を出力するよう構成されることにな る c
[0202] このような構成を採ることから、 これらのダレ一 ド値出力器 1 bの入力値に対する重み値を変更する ことで、 後件部メ ンバシップ関数の関数形状を変更 できることになる。
[0203] 次に第 5図のルール部 1 7内のシグモイ ド関数ュ ニッ ト 2 3 a 〜 2 3 e の機能について説明する。 例 えば第 6図のルール 1 で前件部は命題 「 Xが小さい j と命題 「 Yが小さい」 とのフア ジィ論理の積演算を 示しており、 シグモイ ド関数ュニッ ト 2 3 a 〜 2 3 e はこのようなフア ジィ論理演算機能を持つ必要が ある。
[0204] 第 1 2図は、 このような論理演箕機能を 1個の二 ユー ロ ン素子により実現する場合の重みおよび閻値 の設定法の実施例である。 同図において重み W i お よび閾値 6の決定法が示されている。
[0205] 第 1 3図は第 1 2図の重みおよび閾値の決定方式 を用いたルール部の実施例である。 同図において 8 つのファ ジィルールが示されているが、 これらにお いて X ( S S ) は命題 「入力 Xが小さい」 を、 X ( L A ) は命題 「入力 Xが大きい」 を示し、 また〜 X は Xの否定、 すなわち真を 1偽を 0 とあらわすとす ると 1 — Xを示す。
[0206] 第 1 4図は 2つの入力 X , と χ 2 とのフア ジィ論 理演箕の一種の限界積の近似を第 1 2図で S = 1 2 、 t = 0.5 として実現した例である。 同図 (b)は S = 10 , 000 、 t = 0. 5 とした時の例であり、 Sを大き く し てい く と入力値が 0または 1 の時の近似精度が向上 するが、 中間の部分の滑らかさが失われる。
[0207] 第 1 5図は 2入力のフア ジィ論理演算としての積 演算および和演算の実現例であり、 重みおよび閾値 は第 1 2図によって決定される。 以上に説明した前件部メ ンバシ ッ プ関数、 後件部 メ ンバシップ関数、 およびルール部のファ ジィ論理 演箕機能を実行するニューロ ンは、 前述したバック プロバゲ一ショ ン法によって誤差の 2乗和を最小に する学習を行う ものである。 しかしながら、 ニュー ロ ンによる、 例えばメ ンバシ ッブ関数等の近似の際 に望まれるものが誤差の 2乗和最小だけに限られな いことがある。 例えば入力の変化に対する出力の変 化の最大値をメ ンバシ ップ関数の傾きに合わせる, すなわち感度の上限を明確にする。 誤差の和を最小 にする、 最大誤差を最小にする、 などの様々な条件 が考えられる。 ノ ッ クプロパゲーシ ョ ン法ではこの ような要求に答えることができなかった。
[0208] まず第 1 に非線型ニューロ ンの入力 Xと出力 Yの 間に第 1 6図で定義されるようなメ ンバシ ッ プ関数 に近似される関係がある場合に、 ニューロ ンの特性 関数の最大傾きをメ ンバシッブ関数の aから bの間 における傾き、 すなわち 1 / b — a とする場合の重 み、 および閾値の決定法について説明する。 これは 入力の変化に対する出力の変化、 すなわち感度の上 跟を明確にする近似を求めるものであり、 こ の近似 は学習では求めることができない。
[0209] こ こでは非線型ニューロ ンの特性がシグモ イ ド関 数の場合とハイバボリ ックタ ンジュ ン ト関数の場合 と考える。 1
[0210] f (x) = をニューロ ンのシグモ
[0211] 1 + exp (-wx + Θ )
[0212] ィ ド関数とすると、
[0213] w exp ι,-wx + Θ )
[0214] f ' (x) となる
[0215] ( 1 +exp(-wx + θ ))ζ
[0216] θ
[0217] wが正の時、 シグモイ ド関数は x = で傾きが 最大となり、
[0218] Θ « exp ( 0 ) その時の傾きは、 f ' ( ) =
[0219] W ( 1 +exP( 0 ))z である。
[0220] 4
[0221] a + b 従って、 これをメ ンバシップ閬数の中点 での
[0222] 2
[0223] 1
[0224] 傾き に等しいと置いて、
[0225] D — a
[0226] Θ a + b w 1
[0227] を解けば、 w 2 4 b — a
[0228] 4 2 ( a + b ) w , Θ = -が求まる b — a b — a
[0229] ニューロ ンの特性が tanh関数の場合も同様に求めら れるが、 簡単に求めるには、
[0230] 1
[0231] ί (X) =0.5 +0.5tanh(wx- θ ) =
[0232] l+exp(-2wx+26 ) であることを利用して、 上述の結果から、
[0233] 4 2 ( a + b )
[0234] 2 w = 2 θ = が求められる b — a b— a
[0235] 第 1 7図は感度の上限を明確にする近似を求める ための処理フローチャー ト実施例である。 同図にお いて、 ステ ップ ( S ) 3 0 において定義 Fの値が決 定される。 ここでニューロ ンの特性として exp を使 うならば F = 2、 tanhを使うならば F = 1 とされる, 続いて S 3 1 でメ ンバシ一ッ Xプ関数の属性値 a と bが ぐ 11
[0236] 読み込まれ、 S 3 2で重みが計 <<一算され、 S 3 3で閻
[0237] 一一一一 1
[0238] 値が計算されて処理が終了する。 X X
[0239] V
[0240] 第 2に誤差の絶対値の積分を最小にする近似につ いて説明する。 この近似も学習によって実現するこ とができない。 メ ンバシッブ関数の形状は第 1 6図 と同じとする。
[0241] まず誤差の絶対値の積分を最小にする条件を説明 する。
[0242] 1
[0243] まず、 m (x) = x
[0244] 1
[0245] なる閬数を tanh (wx)で近似することを考える。 第 1 8図に m (x) , tanh (wx)のグラフを示す。 2つの関 数の第一象限の交点の X座標を s と置く と、 s = t a nh (ws)即ち
[0246] tann ― 1 1 + s
[0247] w = l og
[0248] 2s である
[0249] B (w) = /. ( tanh (wx) -x) dx 十 (x - tanh (wx) dx
[0250] な
[0251]
[0252] なる関数を最小にする wを求める。
[0253] 1 s
[0254] 第 1項 = log cosh (ws)―
[0255] w
[0256] 第 2項 +第 3項
[0257]
[0258] + ( log2+ log cosh (ws) )
[0259] w 従って、 B (w) - s c 2 z + log cosh (ws) w
[0260] dB(w)
[0261] れカ、ら、 を計算できる
[0262] dw
[0263] dB( ) log2 2
[0264] ■=― 2ss ' log cosh (ws) dw
[0265] + tanh (ws) (s + ws ' )
[0266] w
[0267] log2
[0268] ― 2 ( s — tanh (ws) ) s '
[0269] 2 2 s
[0270] 1 ogcosh (ws) + tanh (ws)
[0271] w
[0272] (stanh (ws) log J 2 cosh (ws) ) w w 1 - s
[0273] s 2 + log
[0274] w 2w 2
[0275] dB(w)
[0276] で 0 なる s を求める と、
[0277] d
[0278] 1 1 - s 2
[0279] s 2 = log
[0280] 2w 2
[0281] 1 2 s (1 + s) (1一 s) log
[0282] 2 1+ s 2
[0283] log
[0284] 1— s
[0285] 1+ s (1 + s) (1 - s ) slog 一 log
[0286] 1一 s 2
[0287] slog ( 1 + s ) —slog ( 1 — s )
[0288] = - log ( 1 + s ) - log ( 1 - s ) 十 log2
[0289] ( 1 + s ) log( 1 + s ) + ( 1 - s ) log( 1 一 s ) = log 2
[0290] ( 1 十 s ) 1 +s( 1 - s ) 1 "s== 2
[0291] これを満たす s は近似的に 0.7799であり、 従って w は 1.3401となる。
[0292] 第 1 6図に示したメ ンバシップ閬数を f(x)とする と
[0293] 1 2 a + b 1 f [.X) = —— m χ- 十
[0294] 2 b-a 2
[0295] 1 2 1.3401 (a+b) X 1.3401
[0296] -tanh x
[0297] b - a b - a 十
[0298] 2
[0299] シグモイ ド閔数の場合も同様に求められるが、 簡単 に求めるには、
[0300] 1
[0301] f (x) = 0.5 +0.5 tanh
[0302] 1 + exp (-wx + Θ )
[0303] w Θ
[0304] x 一 X 1 ) であることを利用して、
[0305] 2 2 <<1
[0306] く
[0307] w 2 X 1.3401
[0308] X 1
[0309] 上述の結果から、
[0310] 2 b - a
[0311] Θ (a +b) X 1.3401
[0312] が求めら 1 れる
[0313] 2 b— a
[0314] 第 1 9図は、 誤差の絶対値の積分を最小にする近 似を求めるための処理のフ ローチャー トである。 同 図を第 1 7図の処理と比較すると、 S 3 7および S 3 8で重みと閾値を求める際に 1.3401倍される点を 除いては、 第 1 7図の処理と全く 同様である。
[0315] 第 3に誤差の 2乗の積分を最小にする近似につい て説明する。
[0316] メ ンバシップ関数の形状は第 1 6図と同じとする まず、
[0317] 一 1
[0318] m ) X
[0319] 1
[0320] なる関数を tanh (wx) で近似することを考える
[0321] r O
[0322] B (x) ( x-tann (wx) ) zdx + ( 1-tanh (wx) ) 2dx なる関数を最小にする wを求める
[0323] F (X) = anh(t)dt とお く と、
[0324] 4 2
[0325] 第 1項 = F(w) tanh (w)
[0326] 3 w w
[0327] 1 2 第 2項 = log 一 2 + — logcosh (w)
[0328] W w 十 -tanh {¼) dB(w) 1 r 4 y 従って、 4F (w) 一 w log
[0329] dw w L e ' 十 2 logcosh (w) dB(w)
[0330] こ こで = 0 なる wを求める と、 近似解法で w dw
[0331] = 1.3253である。
[0332] 第 1 6図のメ ンバシ ッ プ閬数を ( X ) とする と、
[0333] 1 2 a + b 1 f(x) = x 一 +
[0334] 2 b — a 2
[0335] 1 2 1.3253 (a + b) 1.3253 1
[0336] -tanh x ― + .
[0337] 2 b— a b — a 2 シグモイ ド関数の場合も同様に求められるが、 簡単 に求めるには、
[0338] 1
[0339] f(x) = = 0.5 十 0.5 tanh
[0340] 1十 exp (— wx -h θ ) θ
[0341] ) であることを利用して
[0342] 2 2
[0343] w 2 X 1.3253
[0344] 上述の結果から、
[0345] 2 b - a
[0346] Θ ( a + b ) X 1.3253
[0347] -が求められる。
[0348] 2 b - a
[0349] 一 X 1
[0350] 第 2 0図は誤差の< < 21乗の積分を最小にする近似を く _
[0351] 求めるためにの処理のフローチャー トである。 同図
[0352] X 1
[0353] を第 1 7図および第 1 9図と比較すると、 S 4 2お よび S 4 3で重みおよび閻値を求 <める際に 1.3253倍
[0354] 1
[0355] されて求められる点のみが異なっている。
[0356] 第 4に最大誤差を最小にする近似について説明す る。 この近似も学習で求められることはできない。 メ ンバシッブ関数の形状は第 1 6図のものである。 まず
[0357] 1
[0358] m x) = x
[0359] 1
[0360] なる関数を tanh(wx)で近似することを考える。 第 18 図で 2つの関数の第一象限の交点の X座標を s と置 く と s =tanh(ws)即ち
[0361] tanh - 1 1 十 s
[0362] W lo
[0363] 2s 1 一 s
[0364] である。
[0365] 誤差が最大となる点は、 χ θ ( 0 く χ θ く s ) と 1 のうちのどく らかである。 d
[0366] x 0 は ( tanh(wx) - x ) = 0を満たす点であ dx
[0367] り、 x 0 = -cosh一 1
[0368] w
[0369] その時の誤差は、
[0370] 1
[0371] tanh ( cosh" 1 w ) — cosn"
[0372] w
[0373] = tanh log w + Jw-1 cosh一1/ w
[0374] w
[0375] cosh - 1厂 w
[0376] lJ~w
[0377]
[0378] 次に、 X = l の時の誤差は、 1 — tanh(w) である この 2つの関数は w > 0 の範囲で前者が単調増加、 後者が単調減少であり、 誤差が最小となる wは、
[0379] 1 1
[0380] 1 cosh " 1 ゾ w = 1 — tanh (w)
[0381] w w
[0382] で与えられる。
[0383] 近似解法で求めると、 w =1.412 である。
[0384] 第 1 6図のメ ンバシップ関数を f(x)とすると、
[0385] 1 2 a + b
[0386] f(x) = +
[0387] b - a 2 1 2X1.412 (a + b) X 1.412 1
[0388] -tanh x― 十
[0389] 2 b — a b — a 2 シグモイ ド関数の場合も同様に求められるが、 簡単 に求めるには、
[0390] 1
[0391] f (x) = 0.5 十 0.5 tanh
[0392] 1 + exp 一 wx + 6 )
[0393] w Θ
[0394] (― X ) であることを利用して、 2 2
[0395] w 2 X 1.412
[0396] 上述の結果から
[0397] 2 b a
[0398] Θ ( a + b ) X 1.412
[0399] -が求められる。
[0400] 2 b - a
[0401] 第 2 1図は最大誤差を最小にする近似を求めるた めの処理のフローチャー トである。 同図を第 1 7 , 1 9 , 2 0図と比較すると、 S 4 7 と S 4 8で重み と閽値を求める際に 1.412 倍される点だけが異なつ ている。
[0402] なお、 第 1 7 , 1 9 , 2 0 , および 2 1図では第 1 6図のメ ンバシップ閬数、 すなわち第 9図 (a)に示 したメ ンバシップ関数と同様に 「 Yが大きい j とい うメ ンバシ ップ関数に対応する場合を説明したが、 「 Yが小さい」 に対応するメ ンバシップ関数の形状 を近似する場合には、 重み wと閽値 にそれぞれ一 1 を掛けた値を用いることで近似が実現される。 ま た、 例えば第 1 9図の S 3 7 と S 3 8で掛けられる 定数 1.3401などについては、 精度が要求されない場 合には、 当然その有効数字を減らすことが可能であ る。
[0403] 次にメ ンバシッブ関数の形状が第 1 0図に示した ような 「 Yが普通」 であるようなメ ンバシップ関数 を学習なしに近似する方法を説明する。 第 2 2図は 近似すべきメ ンバシ ップ関数の形状である。 このメ ンバシッブ関数は X == a に関して対称な形状となつ ている。 まず第 1 に感度の上限を明確にする近似を 求める。 第 2 3図はこのような近似を実現するため の 3層のニューラルネッ トワークの説明図である。 同図において、 第 1層は 1個のニューロンから成り このニューロ ンは入力値をそのまま出力する。 第 2 層は 2個のニューロ ンから成り、 これらのニューロ ンは非線型特性を持ち、 その重みおよび閾値は後述 するフ ローチャー トによって決定される。 第 3層は 1個のニューロ ンから成り、 第 2層の 2つのニュー ロ ンの出力の和から 1 を引いたものを出力する。 次に第 2層のニューロ ンの重みおよび閽値の決定 法について説明する。
[0404] 1
[0405] f (w) をニューロ ンのシグモ
[0406] 1 + exp (— wx + Θ )
[0407] ィ ド関数とすると、
[0408] w exp (— wx + β )
[0409] f ' (x) となる
[0410] (1 +exp(-wx+ Θ ))2 Θ
[0411] wが正の時、 シグモイ ド関数は X で傾きが最 w
[0412] 大となり、
[0413] Θ w exp(0) その時の傾きは、 f ' ( 一)
[0414] (1 +exP( 0 ))2 w
[0415] である 従って、 これをメ ンバシップ関数の昇り坂の中点
[0416] ( a - b - c ) + ( a - b ) 1
[0417] での傾き に等
[0418] 2
[0419] しいと置いて、
[0420] Θ ( a - b - c ) + ( a b ) w
[0421] を w 4
[0422] 解けば、
[0423] 4 2a-2 -c
[0424] = , Θ = が求まる。 これが第 c c
[0425] 2層目の第 1 ニューロ ンの重みと閽値である。
[0426] 同様に、 第 2ニューロ ンの重みと閻値は、
[0427] Θ ( a + b + c ) + ( a + b ) w 1 w 2 4 c を解いて、
[0428] 4 2a+2 b +c
[0429] w =— , Θ = 力永まる。
[0430] c 2
[0431] tanh関数の場合も同様に求められるが、 簡単に求め るには、 f (x) =0.5 十 0.5 tanh (wx 一 Θ )
[0432] 1
[0433] であることを利用
[0434] 1 +exp(— 2wx + 2 り
[0435] して、
[0436] 4 2a - 2 b 一 c 上述の結果から、 2w = 2 Θ =■ 及び、
[0437] 4 2a十 2 b +2c
[0438] 2 w = , 2 θ が求められ c
[0439] る。
[0440] 第 2 4図は感度の上限を明確にする近似を求める ための第 2層の重みおよび閾値の決定処理フローチ ャ一 トである。 同図において、 3 4 9 と 3 5 0で、 例えば第 1 7図の S 3 0 と S 3 1 と同様の処理が行 われた後に、 S 5 1 と S 5 2で第 2層の 2つのュニ ッ トに対する重み、 S 5 3 と S 5 4で閾値が求めら れて処理が終了する。
[0441] 次に第 2 2図の形状のメ ンバシップ関数について 最大誤差最小にする近似を求める。 最大誤差を最小 にする近似は第 2 3図と全く 同様の 3層の二ユーラ ルネ ッ トワークによって実現される。 感度の上限を 明確にする近似と同様に、 第 2層の 2つのニューロ ンに対する重みと閾値とが決定される。 その近似に ついて次に説明する。
[0442] まず、 一 1
[0443] m ( x ) x
[0444] 1
[0445] なる関数を tanh(wx)で近似することを考える。 図 1 8で 2つの閬数の第 1象限の交点の X座標を s と置 く と s =tanh ( w s ) 即ち
[0446] tanh― 1 s 1 1 + s
[0447] w log
[0448] s 2s 1 一 s
[0449] である。 一 X 1
[0450] <<1
[0451] 誤差が最大となる点は、 X 0 ( 0 < X 0 < s ) と 1
[0452] V一 X
[0453] のう ちのどちらかである。 X 1 d X
[0454] X 0 は ( tanh(wx) - x ) = 0を <みたす点であ
[0455] dx 1
[0456] ¾、
[0457] その時の誤差は、
[0458]
[0459] 次に、 X = l の時の誤差は、 1 — tanh(w) である この 2つの関数は x > 0 の範囲で前者が単調増加、 後者が単調減少であり、 誤差が最小となる wは、
[0460] 1 1 _
[0461] 1 一 cosn— 1 w = 1 — tanh (w)
[0462] w w
[0463] で与えられる。
[0464] 近似解法で求める と、 w =1.412 である。
[0465] 第 2 2図に示したメ ンバシップ関数の昇り坂の部 分を f (X)とする と、
[0466] 1 r 2
[0467] f(x) =
[0468] 2 (a-b)-(a-b-c)
[0469] (a-b-c) + (a-b)
[0470] x― +
[0471] 2
[0472] 2 2a - 2b - c
[0473] x一 十
[0474] 2
[0475] 1 2a-2b-c 1
[0476] x ― +
[0477] 2 c c 2
[0478] 2X 1.412 (2a-2b-c) X 1.412
[0479] -tanh x 一
[0480] 2 c c +
[0481] 2
[0482] 同様の下り坂の部分は、
[0483] 1 2
[0484] f (x) m
[0485] 2 (a+b+c)-(a+b)
[0486] (a+b) + (a+b+c) 1
[0487] x + ―
[0488] 2 2
[0489] -2 2a+2b+c
[0490] 一 +
[0491] 2 2 2 1 2 - (2a+2b+c) 1
[0492] x ― +
[0493] c c 2
[0494] 2X 1.412 - (2a+2b+c) 1.412
[0495] -tanh x
[0496] 2 c c
[0497] 1
[0498] H——
[0499] 2
[0500] これから tanh関数に対する重みと閡値が求められる, シグモイ ド関数の場合も同様に求められるが、 簡 単に求めるには、
[0501] 1
[0502] f (x) = = 0.5 +0.5 tanh
[0503] 1 + exp (— wx + θ )
[0504] w Θ
[0505] (― x ) であることを利用して、 2
[0506] w 2 X 1.412
[0507] 上述の結果から、 θ (2a - 2b - c) X 1.412
[0508] -及び
[0509] 2 c
[0510] w 2 1.412 Θ -(2a+2b+c) X 1.412
[0511] 2 c
[0512] が求められる。
[0513] 第 2 5図は最大誤差を最小にする近似を求めるた めの第 2層の 2つのュニッ トの重みと閾値の決定処 理フローチャー トである。 同図を感度の上限を明確 にするための第 2 4図と比較すると、 3 5 7から 3 6 0で重みおよび閾値を求める際に 1.412 倍される 点が異なっている。 なお精度を要求されない場合に は、 この 1.412 の有効数字を減らすこ とができる。 第 1 1図で説明したように、 後件部メ ンバシ ップ 関数の実現機能は、 第 5図を用いて説明すれば、 後 件部メ ンバシ ップ閬数実現部 1 8 a の線型ュニッ ト 2 5 a 〜 2 5 nに対する入力結合の重みを、 メ ンバ シ ッブ関数の関数形状を細かく 区分して各横座標に おける後件部メ ンバシップ関数のグレー ド値として 設定することによって達成される。 またルール部 1 7内のシグモイ ド関数ュニッ ト 2 3 a 〜 2 3 e と線 型ユニッ ト 2 4 a , 2 4 b との間の結合はフア ジィ ルールに従って決定される。
[0514] しかしながら、 フア ジィルールが特殊な場合には. こ られの結合のう ちの一部のみが存在し、 他の結合 が存在しない場合、 すなわち重みが 0に設定される 場合がある。 第 2 6図はそのようなフア ジィ ルール の例である。 同図において、 前件部メ ンバシ ッ プ関 数はその形状が図のように規定されているが、 後件 部メ ンバシ ップ閬数は形状として与えられず、 出力 Zの値が特定される形式となっている。
[0515] 第 2 7図は第 2 6図のフアジィルールに対応する ルール部以降の階層ネ ッ トワークの実施例である。 同図において、 第 5図のルール部の出力ュニ ッ ト 2 4 a , 2 4 bに相当するユニッ トは存在せず、 例え ば 2 3 a に相当するュニッ ト 6 1 a と後件部メ ンバ シップ閬数の横座標 = 0. 2 の位置におけるグレー ド 値を出力するュニッ ト 6 2 b、 すなわち第 5図では 2 5 bに相当するュニッ 卜との間が結合され、 その 重みは 1 に設定される。 同様にルール 2に従ってュ ニッ ト 6 1 b と横座標 0. 8 における後件部メ ンバシ ップ関数のグレー ド値を出力するュニッ ト 6 2 e の 間の結合の重みが 1 とされ、 またルール 3 に相当し てユニッ ト 6 1 c と横座標 0. 6 における後件部メ ン バシップ関数のグレー ド値を出力するュニッ ト 6 2 d との間の結合の重みが 1 に設定されることになる < なお第 2 7図では 2層目のニューロ ン、 すなわち 6 2 a〜 6 2 ί に対する入力は 1 つのみの場合を説 明したが、 当然 2つ以上の入力が与えられる場合も ある。 この場合ュニッ ト 6 2 a〜 6 2 f がそれぞれ 線型ュニッ 卜であれば、 これらのュニッ トは複数の ルールのグレー ド値の出力の代数和を出力すること になる。 またユニッ ト 6 2 a 〜 6 2 f が入力の最大 値を出力するものであれば、 複数のルールのグレー ド値の論理和が出力されることになる。
[0516] 次に第 5図の重心計算実現部 1 8 内の重心決定 要素出力装置 2 6について説明する。 第 2 8図は重 心決定要素出力装置の基本構成プロ ック図てある。 第 5図においては重心決定要素出力装置内の入力ュ ニッ トは省略されているが、 第 2 8図ではそれをュ ニッ ト 6 5 a 〜 6 5 n として示しており、 出力層の
[0517] 10 ュニッ ト 6 6 a , 6 6 b は第 5図におけるュニッ ト
[0518] 2 6 a , 2 6 bに相当し、 これら 2つのュニッ トは 重心算出装置 2 7 による重心計算に必要となる 2つ の重心決定要素を出力する。
[0519] 第 2 8図の入力層のュニッ ト 6 5 a 〜 6 5 nは第
[0520] 15 5図における後件部メ ンバシップ閔数実現部の線型 ュニッ ト 2 5 a〜 2 5 n とそれぞれ 1対 1 に結合さ れることになり、 これらのュニッ ト 6 5 a 〜 6 5 n は後件部メ ンバシップ関数を細かく区分したそれぞ れの横座標における後件部メ ンバシップ関数の拡大
[0521] 20 または縮小結果としてのグレード値を出力すること になる。 入力層 6 5 のュニッ ト と出力層 6 6 のュニ ッ ト との間は完全結合されており、 後述の式によつ て決定されるこれらの結合の重み、 および入力層ュ ニッ ト 6 5 a 〜 6 5 nの出力を用いて、 2つの重心
[0522] 25 決定要素がュニッ ト 6 6 a、 6 6 bから出力される 第 2 9図は第 5図の重心計算実現部 1 8 bにおけ る重心算出方法のフローチャー トである。
[0523] 同図において、 まず S 6 8で各座標値と最大の座 標値との差を第 1 の重みとして、 また各座標値と最 小の座標値との差を第 2の重みとして求める。
[0524] 次に S 6 9で各座標値に対する入力と第 1 の重み との積の総和を第 1 の重心決定要素、 入力と第 2の 重みとの積の総和を第 2 の重心決定要素として求め る。
[0525] その後第 5図の重心算出装置 2 7によつて最終的 な重心計算が行われる。 まず S 7 0で最大の座標値 と第 1 の重心決定要素との積と最小の座標値と第 2 の重心決定要素の積との差が求められ、 3 7 1 で 3 7 0 の出力を第 1 の重心決定要素と第 2 の重心決定 要素との差で割り、 重心の値が求められる。
[0526] 第 3 0図は第 2 8図における入力層と出力層の間 の結合の重みの決定法の説明図である。 同図におい ては、 簡単のために入力層のュニッ ト 6 δ a 〜 6 5 nは省略されている。 また出力層内のュニッ ト 6 6 a , 6 6 b は入力の和を取るだけの線形ュニッ トで あり、 それらの出力として 2つの重心決定要素 y ( 1 ) y (2) が出力される。
[0527] 第 3 0図において、 図示しない入力層のュニッ ト と線形ユニッ ト 6 6 a , 6 6 b とを結ぶ結合の重み は、 座標の最小値を χ ( 1 ) , 最大値を x (n)、 任意の 座標値を x (i)として次式で与えられる。
[0528] w ( 1 , i ) = X (i) - X (1) )
[0529] w ( 2 , i ) = χ (i) - χ (η) >
[0530] あるいは cを定数として、 重みを次式のように定め ることもできる。
[0531] w ( 1 , i ) = c { X (i) - X (1) } ,
[0532] w ( 2 , i ) = c { x (i) - x (n) } 】 --flS 第 3 0図において、 2つの線形ユニッ ト 6 6 a、 6 6 bが出力する重心決定要素 y (1) , y (2) を用い て、 重心の値は次式によって計算される。
[0533] X (n) - y (1) - X (1) y (2)
[0534] x (c)
[0535] y (1) 一 y (2)
[0536] なお、 Q6)式で x (1) = 0、 x (n) = 1、 y (1) = Z a, y (2) = Z b とおく ことによって、 第 5図で重心箕 出装置 2 7 のブロ ック内の式 2 = 23 パ 23 - Z b ) が得られる。
[0537] 第 3 1図は重心決定要素出力の第 1 の実施例であ る。 同図 (a)は各座標値とこれから計算される各結合 の重みを示し、 (b)は入力値とそれに対'する重心決定 要素出力値の例である。 (16)式を用いて重心を計算す ると、 その値は 1 として与えられる。
[0538] 第 3 2図は重心決定要素出力の第 2の実施例であ る。 同図は (15)式において定数 cを 1ノ15とした場合 の例であり、 (a)は各座標と結合の重みを、 又 (b)は入 力値と重心決定要素出力値を示し、 (1Θ式を用いるこ とによって、 重心の値は第 3 1図と同じく 1 となる, 第 3 3図は、 重心決定要素出力装置に対する教師 信号決定装置の基本構成ブロ ック図である。 同図は 例えばファ ジィ ニューロ融合システムの推論の最終 過程における重心計算に必要となる 2つの重心決定 要素を出力するニューラルネ ッ トワークによる重心 決定要素出力装置に対して、 適切な教師信号を出力 する重心決定要素出力装置の教師信号決定装置の基 本構成ブロ ック図である。 同図 (a)は後述する第 1 の 実施例に対する基本構成ブロ ック図を示し、 重心決 定要素出力装置 7 5 は前述のように数直線上の複数 の座標値とこれら複数の各座標値に対する入力値と から、 重心を計算するために必要となる 2つの重心 決定要素を出力する。
[0539] 端点座標および傾き記憶手段 7 6 は、 複数の座標 値のう ちで最大と最小の座標値である 2つの端点座 標と、 重心を通る直線の傾きを記憶する。 教師信号 計算手段 7 7 は、 例えば重心決定要素出力装置 7 5 に相当するニューラルネ ッ トワークの学習時におい て入力される真の重心の値と、 端点座標および傾き 記憶手段 7 6 に記憶されている端点座標と重心を通 る直線の傾きとを用いて、 重心を計算するための 2 つの重心決定要素に対する教師信号を求め、 それを 重心決定要素出力装置 7 5 に出力する。 この計箕に おいて、 教師信号は入力された真の重心を通り、 端 点座標および傾き記憶手段 7 6 に記憶されている傾 きを持つ直線の式によつて決定される。
[0540] 第 3 3図 (b)は後述する第 2 の実施例に対する基本 構成ブロ ック図である。 同図において重心決定要素 出力装置 7 5 の作用は同図 (a)におけると全く 同様で ある。 端点座標記憶手段 7 8 は複数の座標値のう ち で最大と最小の座標値である 2つの端点座標を記憶 する。 教師信号計算手段 7 9 は、 重心決定要素出力 装置 7 5 に相当するニューラルネ ッ ト ワークの学習 時に入力される真の重心の値と、 重心決定要素出力 装置 7 5が出力する 2つの重心決定要素の値と、 端 点座標記憶手段 7 8 に記憶されている 2つの端点座 標とを用いて、 2つの重心決定要素に対する教師信 号を求めてそれを出力する。 この計箕において、 教 師信号は 2つの重心決定要素の出力値によつて決ま る直線と同じ傾きを持ち、 真の重心を通る直線の式 によって決定される。
[0541] 前述の重心決定要素は、 これらが計算される過程 において用いられる重みの符号が逆になることから、 一般に一方が正であれば他方は負となる。 そして、 これらの 2つの重心決定要素の値を座標軸に垂直な 方向のべク トルとして、 符号が正であれば下方向、 負であれば上方向のべク トルとして表すこ とにする。 複数の座標値のう ちで最小の座標値、 すなわち x ( l) 1 の位置に第 1 の重心決定要素に相当するべク トル、 最大の座標値、 すなわち X (n)の位置に第 2 の重心決 定要素に相当するべク トルを立て、 これらのべク ト ルの先端を結ぶ直線が X軸と交わる点が重心として κ 求められる。
[0542] 第 3 3図 (a)においては、 重心決定要素出力装置 7 5を構成するニューラルネ ッ トワークの学習時に入 力される真の重心を通り、 端点座標および傾き記憶 手段 7 6に記憶されている傾きを持つ直線の式によ 0 つて、 2 つの端点座標の位置におけるベク トルの大 きさとその符号とが求められ、 これらの値が 2つの 重心決定要素に対する教師信号として重心決定要素 出力装置 Ί 5 に与えられる。
[0543] また第 3 3図 (b)においては、 重心決定要素出力装 δ 置 7 5が出力する 2つの重心決定要素に相当する 2 つのべク トルの先端を結ぶ直線と同じ傾きを持ち、 真の重心を通る直線の式によつて 2つの端点座標に おけるベク トルの大きさとその符号が求められ、 こ れらの値が教師信号として重心決定要素出力装置に 0 与えられる。
[0544] 第 3 4図, 第 3 5図は教師信号決定装置の実施例 の構成プロ ック図である。 第 3 4図は第 3 3図 (a)に 相当し、 また第 3 5図は第 3 3図 (b)に相当する。 こ れらの図において、 重心決定要素出力装置 2 6 は第 5 3 0図にその実施例を示したものである。 第 3 4図 で教師信号決定装置 8 0 a は、 端点座標と重心を通 る直線の傾きの値を記憶する端点座標 , 傾き保存装 置 8 1 と、 重心決定要素出力装置 2 6を構成する二 ユーラルネ ッ トワークの学習時に入力される重心の 値と端点座標 · 傾き保存装置 8 1 に保存されている 値とを用いて教師信号を出力する教師信号計算装置 8 2 によって構成される。
[0545] 第 3 5図においては、 教師信号決定装置 8 0 bは 端点座標の値を記憶する端点座標保存装置 8 3 と、
[0546] 10 重心決定要素出力装置 2 6が出力する 2つの重心決 定要素の出力値と、 真の重心の値、 および端点座標 保存装置 8 3に記憶されている端点座標の値とによ つて教師信号を計算し、 その値を重心決定要素出力 装置 2 6に与える教師信号計算装置 8 4によって構
[0547] 15 成されている。
[0548] 第 3 6図は教師信号計箕装置において用いられる 計算方法の実施例である。 同図 (a)は第 1 の実施例、 (b)は第 2の実施例において用いられる計算方法であ る。 同図 (a)において重心 Cを通る直線の傾きを a、
[0549] 20 複数の座標値のう ちで最小の座標値、 すなわち X l における教師信号の値を z i , 最大の座標値、 すな わち x 2 における教師信号の値を z 2 とすると、 こ れらの教師信号の値は次式で与えられる。
[0550] z 1 = a ( c - X 1 )
[0551] 25 Z 2 ( c X 2 07) 第 3 6図 (b)において最小の座標値、 すなわち X , における重心決定要素出力装置の出力としての第 1 の重心決定要素を 、 教師信号の値を とし、 また最大の座標値、 すなわち X 2 における重心決定 要素出力装置の出力としての第 2 の重心決定要素を y 2 、 教師信号の値を z 2 とすると、 教師信号の値 は次式によって与えられる。
[0552] z 1 = { (y2 - 1 )/( X z - x i) } ( c - x i ) ) z 2 = { (y2 - y l ) /( x 2 - x l ) } ( c - x 2 ) J
[0553] 08) 第 3 7図は教師信号出力の実施例である。 同図 (a) においては、 端点の座標値— 5 , 1 0および直線の 傾き 0.2 が第 3 4図の端点座標 · 傾き保存装置 8 1 に予め保存されており、 真の重心の座標 5が教師信 号計算装置 8 2に入力されると、 2つの教師信号の 値が = 2 , z 2 =— 1 と して決定される。
[0554] 第 3 7図 (b)においては端点の座標— 5 と 1 0が予 め第 3 5図の端点座標保存装置 8 3 に設定されてお り、 重心決定要素出力装置 2 6の出カ 1 = -1.5, 2 =1.5 と真の重心の座標 5が教師信号計算装置 8 4に入力されると、 2つの教師信号の値が z , = + 2 , z 2 =— 1 と して決定される。
[0555] 以上の説明では、 第 5図および第 7図に示したよ う にフア ジィ推論の最終ステップと しての重心演算 は階層型ニューラルネ ッ ト ワークの最終出力として の 2つの重心決定要素を用いて重心算出装置 2 Ί に よって行われるものとしたが、 重心計算実現部 1 8 b の全体をニューラルネ ッ ト ワーク と して構成する ことも可能である。 この場合には、 第 5図で重心箕 出装置 2 7 による割り算をも舍めて、 重心計算実現 部全体が階層型ニューラルネ ッ ト ワーク となり、 1 個の出力ュニ 'ン 卜から重心の値が出力される。 そし てこの階層型ニューラルネ ッ ト ワークが正しく重心 値を計算できるように、 例えばバックプロバゲーシ ョ ン法を用いて階層型ネッ トワークの学習が行われ る。
[0556] 第 3 8図は重心計算実現部としての階層型ニュー ラルネ ッ トワークの実施例である。 同図において、 重心計算実現部 8 8 は入力層 9 1 , 1 または 2以上 の層から成る中間層 9 2、 出力層 9 3から構成され. 入力層は第 5図の後件部メ ンバシ ップ関数実現部の 線型ュニッ ト 2 5 a〜 2 5 nからの値を受け取るュ ニッ ト 9 1 a〜 9 1 n力、ら成り、 また出力層 9 3 の ユニ ッ トは 9 3 a、 1個のみである。
[0557] 第 3 8図において、 重心計算実現部 8 8 の前に各 入力ュニッ ト 9 1 a〜 9 1 nにそれぞれ対応して置 かれている入力正規化装置 8 9 a〜 8 9 nは、 入力 ュニッ 卜が敏感となる範囲、 すなわち例えばシグモ ィ ド関数の傾きが大き く なつている範囲 (例えばュ ニッ トの特性をシグモイ ド関数 f ) とするとき、 { x ; I f ' (x) I > a } ( a > 0 ) として xの範 囲が決定される) に、 後件部メ ンバシ ッブ関数実現 部 2 5 a 〜 2 5 nの出力を線型変換することにより 入力ュニッ ト 9 1 a 〜 9 1 nの動作を敏感とするた めのものである。 また重心計算実現部 8 8の後段に 設けられる出力復元装置 9 0 は、 出力ユニッ ト 9 3 aが出力した出力値を、 座標値の範囲に対応して適 当な関数によって写像するものである。 なおこれら の入力正規化装置、 および出力復元装置は必ずしも 必要なものではない。
[0558] 第 3 9図はフアジィ推論部を舍む重心出力装置の 全体構成ブロ ック図である。 同図において、 システ ムには、 第 3 8図の構成に加えてフア ジィ推論部 9 4、 ニューラルネ ッ トワーク制御部 9 5、 および重 心学習装置 9 6が備えられている。 フア ジィ推論部 9 4 は、 第 5図で後件部メ ンバシ ップ関数実現部 1 8 a までの階層型ニューラルネ ッ トワークを示して おり、 線型ュニッ ト 2 5 a 〜 2 5 nの出力がそれぞ れ入力正規化装置 8 9 a 〜 8 9 nを介して重心計算 用ニューラルネ ッ ト ワーク 8 8 に入力される。 ニュ 一ラルネ ッ トワーク制御部 9 5 は重心計算用ニュー ラルネ ッ トワーク 8 8内の結合の重みや、 ュニッ ト の閽値などの内部状態の設定や変更等の制御を行う ものであり、 また重心学習装置 9 6 は重心計算用二 ュ一ラルネ ッ トワーク 8 8の学習時に教師データの 発生等を行う ものである。
[0559] 第 4 0図はニューラルネ ッ トワーク制御部 9 5、 および重心学習装置 9 6 の構成を更に詳細に示した 重心出力装置の実施例である。 重心学習装置 9 6に は当該重心学習装置 9 6 の種々の制御を行う制御部 1 0 0 と、 外部から入力した座標値、 入出力範囲及 び教師データ数を保存する定数保存部 1 0 2 と、 乱 数を発生させる乱数発生部 1 0 3 と、 前記定数保存 部 1 0 2 に保存されている定数及び前記乱数発生部 1 0 3から発生した乱数に基づいて学習用に用いる 教師データを発生させる教師データ発生部 1 0 1 と- を有するものである。
[0560] また、 第 4 0図に示すように、 前記ニューラルネ ッ トワーク制御部 9 5 には前記教師データ発生部 1 0 1 から発生した教師データを学習データとして保 存する学習データ保存部 9 8 と、 前記ニューラルネ ッ トワーク 8 8 の各ュニッ ト間の接続線に対応付け られた重み、 各ュニ ッ トが閾値処理に用いる閾値、 学習定数及びモ一メ ン ト等のニューラルネッ トヮー ク 8 8が従うべき内部状態データを保存する内部状 態保存部 9 9 と、 前記重心学習装置 9 6 の前記制御 部 1 0 0からの指示があった場合に、 学習データ保 存部 9 8 に保存されている学習データを前記ニュー ラルネ ッ トワーク 8 8 に入力させるとともに、 前記 ニューラルネ ッ トワーク 8 8から出力された重心を 表わす出力値と重心を表わす教師データとを比較し て前記内部状態保存部 9 9 に保存されている内部状 態の変更の制御を行う学習制御部 9 7 とを有するも のである。
[0561] 第 4 1図の流れ図に示すように、 ステップ S 1 0
[0562] 4で当該重心学習装置 9 6 の前記制御部 1 0 0 は外 部から座標値、 入出力範囲及び教師データ数を読み 込み前記定数保存部 1 0 2に保存する。
[0563] ステップ S 1 0 5 で当該制御部 1 0 0 は教師デ一 タ発生部 1 0 1 に対し、 教師データ発生するように 指示する。
[0564] 当該教師データ発生部 1 0 1 はステップ S 1 0 6 で前記定数保存部 1 0 2から定数データを読み出す < ステ ップ S 1 0 7で教師データ発生部 1 0 1 は乱 数発生部 1 0 3から乱数を取り出し、 ステ ップ S 1 0 8 で教師データ発生部 1 0 1 は読み出した定数と 乱数とから教師データを発生させる。 こ こで教師デ 一夕の出力は当然乱数に基づいて発生させた入力デ ータに応じて計算される。
[0565] ステップ S 1 0 9で教師データ発生部 1 0 1 は教 師データをニューラルネッ トワーク制御部 9 5 の学 習データ保存部 9 8 に転送して保存させる。
[0566] ステップ S 1 1 0 で前記学習装置 9 6 の制御部 1 0 0 はニューラルネ ッ トワーク制御部 9 5 の前記学 習制御部 9 7 に対し、 学習の指示命令を出すことに なる。
[0567] 尚、 本実施例では、 数直線上の与えられた座標を { 1 , 2 , 3 , 4 , 5 , } と し、 各座標に対応する 数値 ( "質量" に相当する もの) の入力範囲を例え ば 0 ≤y とし、 ュニッ トの入出力範囲は 0 ≤ t ≤ 1 であるが、 座標及び座標における値を前記所定 入力範囲としてュニッ トが敏感である 0.2 ≤ t ≤0. 8 の範囲に写像する。 そこで、 正規化装置 8 9 i ( i = 1 , 2 , · · · ) の線形関数として、
[0568] input =0.6y/10 + 0.2 -…- 09) を用い、 前記出力復元装置 9 0が用いる適当な線形 関数として、
[0569] c =4(output-0.2)/0.6 + 1 (2Φ を用いることにする。
[0570] 第 4 2図には、 実施例で得られたニューラルネ ッ トワークを用いた重心出力装置が出力した重心の値 と、 実際の重心とを示したものであり、 10個のデー タにより誤差の最大値は 0.12249 であり、 誤差の平 均値は 0.036018である。
[0571] なお、 以上の例では前記入力正規化装置及び出力 復元装置の関数は線形関数としたが、 当該場合に限 られることな く、 非線形関数であっても良い。
[0572] 次に、 第 5図の重心計算実現部 1 8 bの第 3 の実 施例としての計算ネ ッ ト ワークについて説明する。 重心計箕実現部 1 8 b は、 フア ジィ推論の最終ステ ップとして、 次式によって重心値としてのシステム の出力を決定するものである。
[0573] Z =ソ z · grade (z) dz/ j grade (z) dz = ∑Z z i
[0574] • grade ( z i ) / ∑ grade - -(21 ) すなわち、 後件部メ ンバシップ関数の横座標 Zとそ の座標におけるグレー ド値との積の Zについての積 分値を、 Zにおけるグレー ド値の Zについての積分 値で割った結果が、 重心として求められる。
[0575] 第 4 3図ではこの考え方によって重心を求める重 心計算実現部としての割り算ネ ッ トワークの説明図 である。 ここでは、 第 2 7図におけると同様に、 第 5図のルール部 1 7内の出力ュニッ ト 2 4 a s 2 4 bが不要となるようなフア ジィルール、 すなわち第 2 6図に示したようなフア ジィルールを対象とする ものとする。
[0576] 従って、 第 4 3図においてュニッ ト 1 1 2 a〜 l 1 2 kは第 5図においてルール部 1 7 内のシグモイ ド関数 2 3 a〜 2 3 eに対応しそこで、 (21)式の座 標 Zにおけるグレード値はルールのグレ一ド値に対 応する。 そこで、 ュニッ ト 1 1 2 a〜 1 1 2 k と割 り箕ネ ッ トワーク 1 1 1 内の第 1 の入力ュニッ ト A との間の結合の童みは後件部メ ンバシップ関数の横 座標の値 z ! ' · · z i · · · z k となり、 またも う一方のユニッ ト B との間の結合の重みは全て ' 1 となる。 これに応じて、 割り算ネ ッ トワーク 1 1 1 がュニッ ト 1 1 3 a の出力 (A ) を 1 1 3 b の出力 ( B ) で除算した結果を出力するこ とにより、 重心 の値が箕出される。 ここで割り算ネ ッ トワーク 1 1 1 は、 例えばバックプロバゲ一ショ ン法によつて割 り箕の学習を行う ものとする。
[0577] 第 4 4図は割り算ネ ッ トワークの実施例である。 同図は第 2 6図のフア ジィルールにそのまま対応す る ものであり、 ュニ ッ ト 1 1 2 a 〜 1 1 2 c とュニ ッ ト 1 1 3 a との間の結合の重みは後件部メ ンバシ ッブ関数の横座標の値 0. 2 , 0. 8 , 0. 6 であり、 ま たュニッ ト 1 1 3 b との間の結合の重みは全て 1 で ある。
[0578] 次に第 3図で説明した純ニュー ロ 1 1 からルール 部プリ ワイ ヤニューロ 1 2、 またはルール部全結合 ニューロ 1 3へのネ ッ トワーク構造変換、 および第 3図には示されていないルール部全結合ニューロ 1 3からノレール部プリ ワイ ヤニューロ 1 2へのネ ッ ト ワーク構造変換、 およびルール部プリ ワイ ヤニュー 口 1 2、 またはルール部全結合二ユー ロ 1 3 からの フア ジィ モデル抽出について更に詳細に説明する。 第 4 5図はネ ッ トワーク構造変換、 およびファ ジ ィ モデル抽出の概念図である。 純ニュー ロ 1 1 から のネ ッ トワーク構造変換によって、 ルール部プリ ヮ ィ ャニューロ 1 2 またはルール部全結合ニューロ 1 3が得られ、 更にルール部全結合ニュー ロ 1 3から のネ ッ トワーク構造変換によつてルール部プリ ワイ ャニューロ 1 2が得られる。 またルール部プリ ワイ ャニ ューロ 1 2からはメ ンバシッブ関数およびファ ジィ ルールが抽出されてフア ジィ モデル 1 0 が得ら れ、 ルール部全結合ニュー ロ 1 3力、らはメ ンノ シッ ブ閬数が抽出されてフア ジィモデル 1 0が得られる, 第 4 6図は純ニューロ、 すなわち第 3図の適応型 データ処理装置 1 1 の構成を示す。 この純ニューロ のようにニューロ · フア ジィ融合システムがュニッ トのみで構成される場合には、 フア ジィ推論の最終 ステップとしての非ファ ジィ化の計算もニューラル ネ ツ トワークのみを用いて行われる。
[0579] 第 4 6図において、 入力を行う入力部の入力層 (第 1層) と処理結果の制御操作量の出力を行う出 力層 (第 n層) があり、 中間層 (第 2層〜第 ( n — 1 ) 層) がある。 中間層は多層とすることが可能で ある。 これらの各層間をユニ ッ ト同士全て結線で完 全結合したのが純ニュ一口である。
[0580] 次にルール部全結合二ユーロ 6をュニッ トのみで 構成した一例を第 4 7図に示す。
[0581] 同図において、 ルール部全結合ニューロは、 入力 部の入力層 (第 1層) 、 前件部のメ ンバシッブ関数 を実現するのに用いられる第 2層、 各々の前件部メ ンバシッブ関数のグレー ド値を各ュニッ 卜で表す第 3層、 ルール部の第 4層から第 ( n— 2 ) 層、 ここ で第 ( η — 2 ) 層の各ュニッ トは各々の後件部メ ン バシ ッ プ関数の拡大縮小率を表す。 後件部メ ンバシ ッブ関数の実現に用いられる第 ( η — 1 ) 層、 非フ ア ジィ化の結果を出力する出力部の出力層 (第 η層) で構成されている。 そのう ちルール部の第 4層から 第 ( η — 2 ) 層までは完全結合されていることがル —ル部全結合ニュ一口の特徴である。
[0582] 次に、 ルール部プリ ワイ ヤニューロ 7 をユニッ ト のみで構成した一例を第 4 8図に示す。
[0583] 同図において、 入力層 (第 1層) から出力層 (第 η層) までの階層構成は第 4 7図の例と同じである が、 第 4 7図のルール部全結合ニューロの場合とは 異なり、 ルール部の第 4層から第 ( η — 3 ) 層まで の結線が全結合ではなく、 フ ア ジ ィ ルールと対応し た構造をつく るように結合および重みの設定が行わ れているこ とがルール部プリ ワイ ヤニューロの特徴 である。
[0584] なお、 第 4 6図の純ニューロ、 第 4 7図のルール 部全結合ニューロ、 および第 4 8図のルール部プリ ワイ ヤニューロで第 1層は第 5図の入力部 1 5、 第 2層は前件部メ ンバシ ップ関数実現部 1 6 のュニ ッ ト 2 1 a 〜 2 1 d、 第 3層は同じ くュニッ ト 2 2 a 〜 2 2 d、 第 4層はルール部 1 7 のュニッ ト 2 3 a 〜 2 3 e、 ( n — 2 ) 層は同じ く ユニッ ト 2 4 a と 2 4 b、 第 ( n— 1 ) 層は後件部メ ンバシ ップ関数 実現部 1 8 a に相当するが、 第 n層 (出力層) は何 らかの非フア ジィ化の計箕を行う ものであり、 その 計算は重心計算ではない。
[0585] 第 4 6図において、 純ニューロの入力層と第 2層 間の結線の重みと、 第 2層と第 3層間の結線の重み について、 影響度の小さい結線を削除するこ とによ り、 入力に対するメ ンバシップ関数を明確化できる。 また、 後件部メ ンバシップ関数を抽出するために-、 第 ( n— 1 ) 層のュニッ ト と出力層 (第 n層) のュ ニッ ト間の結線の重みが小さい順に並ぶように、 各 々の結線に結合された第 ( n— 1 ) 層のユニッ トお よびそのュニッ トに接続されている第 ( n— 2 ) 層 のュニッ トからの結線の重みを並べ換える。
[0586] 以上のような手続きを行う ことにより、 純ニュー 口をルール部全結合ニューロへ変換するこ とができ る。
[0587] 次に、 純ニューロの入力層と第 2層間の結線の重 みと、 第 2層と第 3層間の結線の重みについて、 影 響度の小さい結線を削除することにより、 入力に対 するメ ンバシップ閔数が抽出できる。 また、 第 3層 から第 ( n— 2 ) 層間で影響度の小さい結線を削除 することにより、 フア ジィルールが抽岀できる。
[0588] 最後に、 後件部メ ンバシップ関数の抽出を行うた めに、 第 ( n— 1 ) 層のュニッ ト と出力層 (第 n層) のュニッ ト間の結線の重みが小さい順に並ぶように、 l 各々の結線に結合された第 ( n— 1 ) 層のュニッ ト およびそのュニ ッ トに接続されている第 ( n — 2 ) 層のュニッ トからの結線の重みも並べ換える。
[0589] 以上のような手続きを行う ことにより、 純ニュー
[0590] K 口をルール部プリ ワイ ヤニューロへ変換することが できる。 同様にして、 ルール部全結合ニューロもル ール部プリ ワイ ャニューロに変換することができる, 従来の純ニューロ構造をとる階層型ニューラルネ ッ トワークでは、 学習させたシステムの内部規則が 0 全ての結線に重みとして拡散する傾向があり、 内部 規則をその中から分離して取り岀すのは従来極めて 困難であつたが、 本発明によれば、 ルール部プリ ヮ ィャニューロあるいはルール部全結合ニューロに変 換するこ とにより、 内部規則をフア ジィ モデルの形 5 式で抽出することができる。
[0591] フア ジィ モデルの抽出は、 ネ ッ トワーク全体の情 報処理性能をできるだけ変化させないように影響度 の小さい結合およびュニッ トを削除することによつ て行われる。
[0592] 0 次にルール部プリ ワイ ヤニューロ、 ルール部全結 合ニューロ、 または純ニューロからのフア ジィ モデ ルの抽出について第 5図の各部名称を用いて説明す る。
[0593] 1 . ルール部プリ ワイ ヤニューロからのフア ジィ ル 5 —ルの抽出 ルール部プリ ワイ ヤニューロを解折する処理は、 ルール部のュニッ トを論理素子の機能に変換する論 理素子化処理と、 ルール部ュニッ ト の削除処理とか らなる。
[0594] 1 一 1 . ルール部のニューロの論理素子化
[0595] ルール部の各ュニッ ト毎に次の(1) 〜(8)の手順を 実行する。 (1 ) および(2) の処理は、 結線中の食の 符号の重みを正の符号に統一する前処理であり、 負 の符号が舍まれることにより論理が判りに く く なる のを避けるために行われる。 (3)ないし(6)の処理は、 各ュニッ 卜の入出力特性を調べ、 それぞれの振幅の 大きさ (ダイナミ ンク レ ンジ) を揃えて、 ルール部 一後件部メ ンバシッブ関数部間結線の重みの値だけ 貢献度の大きさを判定できるようにするために行わ れる。 そして(7)および (8)の処理は、 ュニッ トの入出 力特性とマツチングする論理素子を決定するために 行われる。
[0596] ( 1 ) ルール部一後件部メ ンバシップ関数実現部間結 線の重みが負ならば、 (a)〜(b)を行う。
[0597] )ルール部一後件部メ ンバシップ関数実現部間結 線の重みの符号を正にする。
[0598] (b)前件部メ ンバシッブ関数実現部一ルール部間結 線の重み (閻値を舍む) の符号を反転させる。 (こ の操作は否定を取ることに対応する)
[0599] (2) 前件部メ ンバシップ関数実現部一ルール部間結 線の重み (閽値を舍む) 毎に (a)を行う。
[0600] )重み (閾値を舍む) の符号が負ならば、 ( i ) 〜 ( ii ) を行つ。
[0601] ( i ) どの重み (閾値を舍む) の符号が負であるか を記録する。
[0602] ( ii ) 重み (閾値を舍む) の符号を正にする。
[0603] (3)ュニッ トの入出力特性を調べるためのデータを入 力して出力を得る。
[0604] (4)出力の最大値 max > 最小値 m i n を調べる
[0605] (5)以下の式に従い、 出力値の正規化を行う。
[0606] X = { —m i n ) / ( max - m i n )
[0607] ただし、 x : 変換前の出力値
[0608] X : 変換後の出力値
[0609] (6)以下の式に従い、 ルール部一後件部メ ンバシップ 閬数部間結線の重みを変換する。 (変換された重み は、 フア ジィルールの重要度と解釈できる)
[0610] W = w X 、 max —m i n )
[0611] ただし、 w ==変換前の重み値
[0612] W =変換後の重み値
[0613] (7)正規化された入出力データと、 論理素子の参照用 入出力データとのマ ッチングを取る。
[0614] (8)マ ッチングの結果と(2) , (a) , ( i ) の情報とか ら、 ュニッ トがどの論理演算を実現しているかを決 定する。 ここで、 恒真または恒偽と判定された場合 は、 ユニッ トは削除される。 1 — 2 . ルール部ユニ ッ トの削除
[0615] ルール部と後件部メ ンバシ ッブ関数部との間の結 合の重みを調べ、 重みの大きさの順に、 希望するフ ア ジィルール数までの結線のみを残す、 さらにその 残った結線に接続されているルール部のュニッ トと. そのュニッ トに接続されている前件部メ ンバシップ 関数部一ルール部間の結線のみを残す。
[0616] 第 4 9 〜 5 1図に具体例を示す。
[0617] なお、 第 4 9 〜 5 7図では第 5図の前件部メ ンバ シップ関数実現部 1 6が前件部メ ンバシ ップ関数実 現部 (第 2層) と前件部メ ンバシ ップ関数部 (第 3 層) とに、 またルール部 1 Ίがルール部第 4層と後 件部メ ンバシップ関数部 (第 5層) とに区分されて いる。 さらに重心決定要素出力装置 2 6 は重心用中 間値部に、 重心算出装置 2 7 は重心計算部に相当す る。
[0618] ' 第 4 9図は論理素子化前のルール部プリ ワイ ヤ二 ユーロの状態であり、 このルール部の各ュニッ トを 論理素子化することによって第 5 0図の状態が得ら れる。 第 5 0図では、 ルール部の各ュニ 'ン トの機能 は、 論理和、 平均、 Xのみ、 恒真、 代数和、 代数積. 限界積、 Yのみ、 でそれぞれ表される論理素子機能 に変換される。 第 5 1図は、 第 5 0図のルール部と 後件部メ ンバシップ関数部との間に点線で示されて いる結線について、 重みの大きさの順に 3本を選び. ! それに接続されているルール部のユニッ トを残し、 他のュニッ トはそのュニッ 卜の前後の結線とともに 削除し 3個のフア ジィ ルールを抽出できるように簡 略化した状態を示す。
[0619] R 第 5 1図でルール部に残された 3つのユニッ トの 論理素子機能は、 平均、 Xのみ、 限界積、 であり、 これらの論理素子機能を用いることにより、 フア ジ ィルールは次のように表すことができる。
[0620] if 平均 (: x(SS), y(SS) 〕 then z(LA)
[0621] 0 i f x (Lft; then z (SS)
[0622] if 限界積 〔x(LA), y(LA) 〕 then z(SS)
[0623] 2. ルール部全結合ニューロからのフア ジィ ル一ル の抽出
[0624] ルール部全結合ニュー ロを解折する処理は、 ルー 15 ル部全結合ニューロの前件部メ ンバシ ップ関数部と ルール部との間の結線、 およびルール部と後件部メ ンバシ ッブ関数部との間の結線をそれぞれ簡略化し て、 ルール部全結合ニューロをルール部プリ ワ イ ヤ ニューロに構造変換する処理と、 変換結果のルール 20 部プリ ワ イ ヤニューロからフ ア ジィルールを抽出す る処理とからなつている。 次にその処理手順 2 _ 1 ないし 2 — 3を示す。
[0625] 2 - 1. 前件部メ ンバシ ッ プ関数実現部一ルール部 間結線の簡略化
[0626] 25 ルール部の各ュニッ ト毎に(1)〜 (3)を行う。 ( 1 ) 前件部メ ンバシップ関数部のュニッ トを、 入力 変換毎にグループ化する。
[0627] (2) グループ毎に (a)を行う。
[0628] (a)グループ内で、 前件部メ ンバシップ関数部ール 一ル部間結線について、 重みの絶対値が最大の結線 を求め、 その結線のみを残す。 (各グループからル 一ル部のュニッ ト毎に 1 本の結線が残る) 。
[0629] (3)前件部メ ンバシップ関数部一ルール部間結線のう ちの(2) で残された結線について、 さらに重みの絶 対値の大きさ順位 2位までの結線のみを残す。
[0630] 2 — 2 . ルール部一後件部メ ンバシ ッ プ関数実現部 間結線の簡略化
[0631] ルール部の各ュニッ ト毎に(1 ) 〜(2) を行う。
[0632] ( 1) 後件部メ ンバシ ップ関数部のュニッ トを、 出力 変数毎にグループ化する。
[0633] (2) グループ毎に (a)を行う。
[0634] (a)グループ内で、 ルール部一後件部メ ンバシップ 閬数部間結線について、 重みの絶対値が最大の結線 を求め、 その結線のみを残す。
[0635] 2 - 3 . 以降の手続きは、 ルール部プリ ワイ ヤニュ —口と共通。
[0636] 第 5 2〜 5 7囪に具体例を示す。
[0637] 第 5 2図はルール部全結合ニューロ の例で、 フ ァ ジィルール抽出処理前の処理を示す。 第 5 3図はル ール部の各ユニッ ト毎に前件部メ ンバシップ関数部 ! のユニ ッ トを入力変数 x , y毎にグループ化する処 理を示す。 第 5 4図は第 5 3図の状態で、 ルール部 の各ュニッ ト毎に各前件部メ ンバシップ関数部のグ ループからの結線の重みを調べ最大の重みの結線を
[0638] ^ 1本ずつ残す。 さらにルール部の各ユニッ ト毎に入 力結線を重みの大きい方から 2本ずつ選択して残り を削除し簡赂化した状態を示す。 第 5 5図は第 5 4 図の状態で後件部メ ンバシ ップ関数部のュニッ トを 出力変数 Zについてグループ化する。 ただし、 この 0 場合グループは 1つである。 ルール部の各ユニ ッ ト 毎にグループへの結線のう ち最大の重みをもつ結線 の 1本のみを選択して残りを削除し簡略化した状態 を示す。 第 5 6図は第 5 5図の状態でルール部の各 ュニッ トを論理素子化した状態を示す。 第 5 7図は 5 第 5 6図でルール部の論理素子化されたュニッ トに ついて、 後件部メ ンバシ ップ関数部への結線の重み の大きさに従って、 希望する フア ジィルール数に相 当する個数 3 だけ選択した状態を示す。
[0639] 第 5 7図で選択されたルール部の 3つのュニッ ト 0 の論理素子機能は、 X のみ、 平均、 代数和、 であり これを用いてファジィルールは次のように表される ことができる。
[0640] if X (SS) then z(SS)
[0641] if 平均 〔 x(SS) , y(LA) 〕 then z(LA)
[0642] 5 if 代数和 (x(LA) , y(LA) 〕 then z(SS) 3. 純ニューロからのメ ンバシップ関数 ' フア ジィ ルールの抽出
[0643] 対象とするシステムは、 温度と湿度に対する制御 量とする。 これは、 ある温度とある湿度の扰態のと きに行う制御の度合いを示している。 式は以下のと おりである。
[0644] 制御量 = 0.81T +0.1 Η (0.99Τ -14.3) 十 46.3 ここで、 Τは温度 (て) 、 Ηは湿度 (%) を表す。
[0645] このシステムのデータを学習させた階層型の純二 ユーロのネ ッ トワークが第 5 8図である。 このネッ トワークは、 入力層から出力層まで 7層で構成され ている。 入力は温度と湿度の二つで、 制御量が出力 である。 今画、 この対象システムから与えられた学 習パターンは 54パターンで、 このパターンを正規化 したものを用いた。 これを第 5 9図に示す。 第 5 8 図の各層において、 第 1層を 2ュニッ ト、 第 2層を 5ュニッ ト、 第 3層を 3ュニッ ト、 第 4層を 4ュニ ッ ト、 第 5層を 3ュニッ ト、 第 6層を 5ュニッ ト、 第 7層を 1 ュニッ ト とし、 層間を全て結線で結合し- 学習を行った。 学習後は結線の重みを第 6 0図に示 す。 このようにして得られたニューラルネ ッ ト ヮー クからフア ジィ モデルを抽出することを考える。
[0646] 第 5 8図の状態では、 フア ジィ モデルの抽出を行 う ことは困難である。 そこで、 この純ニューロをル ール部プリ ワイ ヤニューロの構造に変換する。 変換 するための手続きを以下に示す。
[0647] ( 1 ) 第 2層の各ュニッ トについて着目する。 第 2層 のュニッ トから第 1層のュニッ トへの結線のう ち重 みの最も大きいものを 1本残し、 その他の結線を削 除する。 この様子を第 6 1図に示す。 図中、 点線は 削除した結線である。
[0648] (2) 第 3層の各ュニッ トについて着目する。 第 3層 のュニッ トから第 2層のュニッ トへの結線を重みの 大きい方から数本残し、 その他の結線を削除する。 この様子を第 6 2図に示す。 この例では、 各ュニッ トからの結線は 2本ずつ残した。 図中、 点線は削除 した結線である。
[0649] (3)第 4層の各ュニッ トについて着目する。 第 4層の ュニッ トから第 3層のュニッ トへの結線を重みの大 きい方から数本残し、 その他の結線を削除する。 こ の様子を第 6 3図に示す。 この例では、 各ュニッ ト からの結線は 2本ずつ残した。 図中、 点線は削除し た結線である。
[0650] (4)第 4層の各ュニッ トについて着目する。 第 4層の ユニッ トから第 5層のユニッ トへの結線のう ち重み の最も大きいものを 1本残し、 その他の結線を削除 する。 この様子を第 6 4図に示す。 図中、 点線は削 除した結線である。
[0651] (5)第 6層のュニッ ト と第 7層のュニッ ト間の結線の 重みが小さい順に並ぶように各々の結線に結合され λ た、 第 6層のユニッ ト (図 2 1④〜⑧) およびその ュニッ トに接続されている第 5層のュニッ トからの 結線の重みを並べ換える。 この様子を第 6 5図に示 す。
[0652] Β 以上の手続きを行ったものが第 6 6図のルール部 プリ ワイヤニューロである。 第 1層では温度 · 湿度 の 2変数を入力する。 第 2層および第 3層の各ュニ ッ トは前件部メ ンバシップ関数に対応し、 第 4層は ルールに対応する。 第 5層および第 6層の各ュニッ 0 トは後件部メ ンバシ ップ関数に対応し、 第 7層では 非フア ジィ化の計算を行い、 出力値を出力する。 第 6 6図で、 前件部メ ンバシ ップ閬数のグレー ド 値を出力する第 3層の各ュニッ ト (この例では 3ュ ニッ ト) から第 2層、 第 1層と結線の重みをたどつ5 てい く と、 第 3層の第 1 ユニッ トは、 入力変数の温 度 ( Τ ) に関する前件部メ ンバシ ッブ関数のグレー ド値を出力していることがわかる。 第 2、 第 3ュニ ッ トは、 同様にたどってい く と、 入力変数の湿度 ( Η ) に関する前件部メ ンバシ ッ プ関数のグレー ド0 値を出力していることがわかる。
[0653] 次に、 第 4層の各ュニッ ト (この例では 4ュニッ ト) はフア ジィルールに対応している。 この層の前 後層間の結線の重みを解折するこ とにより、 フア ジ ィルールを読み取ることができる。 また、 第 5層の5 各ュニッ ト (この例では 3ュニッ ト) について、 第 6層と第 7層間の結線の重みに対する第 5層と第 6 層間の結線の重みを正規化しグラフしたものが第 6 7図①〜③である。 第 6 7図で、 横軸は第 6層と第 7層間の結線の重み、 すなわち第 6層のュニッ トの 出力値が後件部メ ンバシップ閩数の出力値座標軸上 のどの点のダレ一 ド値を表しているかを示し、 そし て縦軸は第 6層から第 5層のュニッ トへの結線の重 み、 すなわち第 5層の各ュニッ トに対応する後件部 メ ンバシップ閩数の出力値軸上の先に指定された点 におけるグレー ド値に対応する。
[0654] 第 6 7図中、 第 6層の各ュニッ トから第 7層のュ ニッ トへの結線の重みはそれぞれ d , , d 2 , d 3 d 4 , d 5 である。 ①は第 5層の第 1 ユニッ トに対 応づけられた後件部メ ンバシ 'ンプ関数で、 第 1 ュニ ソ トから第 6層の全てのユニッ トへの結線の重みは それぞれ a i , a 2 , a 3 , a 4 , a 5 である。 ② は第 2 ュニ ッ トに対応する後件部メ ンバシ ップ閬数 で、 第 2ュニッ トから第 6層の全てのュニッ トへの 結線の重みはそれぞれ , b 2 , b 3 , b 4 , b である。 ③は第 3ュニッ トに対応する後件部メ ンバ シップ関数で、 第 3ュニッ トから第 6層の全てのュ ニッ トへの結線の重みはそれぞれ C , , C 2 , c 3 C 4 , C 5 でめる。
[0655] 以上により、 変換した後のルール部プリ ワ イ ヤ二 ユーロの結線の重みを第 6 8図に示す。 図中、 * * * * *で示したところは、 削除された結線の重みを 示す。
[0656] 上述の例では、 変換手続き(3)を行っているが、 (3) のかわりに、 第 3層のュニッ トのグレー ド化を行う 手法も考えられる。 例えば第 6 9図に示すように、 第 3層の各ュニ ッ トは入力変数に対して、 それぞれ 温度に閬するものと、 湿度に関するものとにグレー ド化できる。 次に、 第 4層の各ュニッ トについて注 目したュニッ トから湿度のグレードへの結線の 1本 のみを残して他を削除する。 ここで点線は削除した 結線の重みを示す。 このようにして変換を行ったル ール部プリ ワイヤニューロが第 7 0図である。 また. 結線の重みを第 7 1図に示す。 図中、 * * * * *で 示したところは、 削除された結線の重みを示す。
[0657] なお前述した純ニュ一口からルール部プリ ワイ ヤ ニューロへの変換手続きのう ち(1), (2) , (5)のみを実 行すると第 7 2図のルール部全結合ニューロが得ら れる。 第 1層では温度 * 湿度の 2変数を入力する。 第 2層および第 3層は前件部メ ンバシ ップ関数に対 応し、 第 5層および第 6層の各ュニ ッ トは後件部メ ンバシップ関数に対応し、 第 6層、 第 7層では非フ ア ジィ化の計算を行い、 出力値を出力する。
[0658] 第 7 2図で、 前件部メ ンバシップ関数のグレー ド 値を出力する第 3層の各ユニッ ト ( こ の例では 3ュ ニッ ト) から第 2層、 第 1層と結線の重みをたどつ てい く と、 第 3層の第 1 ュニッ トは、 入力変数の温 度 ( T ) に関する前件部メ ンバシップ関数のグレー ド値を出力していることがわかる。 第 2、 第 3ュニ ッ トは、 同時にたどってい く と、 入力変数の湿度 ( H ) に関する前件部メ ンバシップ閬数のグレー ド 値を出力していることがわかる。
[0659] 次に、 第 5層の各ュニッ ト ( こ の例では 3ュニッ ト) について、 第 6層と第 7層間の結線の重みに対 する第 5層と第 6層間の結線の重みを正規化しグラ フしたものは前述のように第 6 7図①〜③である。 第 6 7図では、 横軸は第 6層と第 7層間の結線の重 み、 すなわち第 6層のュニッ 卜の出力値が後件部メ ンバシ ップ関数の出力値座標軸上でのどの点のグレ 一ド値を表しているかを示し、 そして縦軸は第 6層 から第 5層のュニッ トへの結線の重み、 すなわち第 5層の各ュニッ トに対する後件部メ ンバシ ップ関数 の出力値座標上の先に指定された点におけるグレー ド値を表す。 また結線の重みを出力値第 7 3図に示 す。 図中、 * * * * * は、 削除された結線の重みを 示す。
[0660] 以上のネ ッ トワーク構造変換の処理フローチャー トを第 7 4図から第 7 8図に示す。 第 7 4図は第 6 1図で示した変換手続き(1)の処理に相当し、 第 1層 から第 2層間、 すなわち例えば第 5 2図では入力部 と前件部メ ンバシ ップ関数部との間の変換手続きの フローチャー トであり、 まず s l 2 0で第 2層のュ ニッ 卜が 1 つ取り出され、 S 1 2 1 で第 2層の最後 のュニッ トに対する処理が終わっているか否かが判 定され、 最後のュニッ トに対する処理が終了してい ない時には S 1 2 2でそのュニッ トへの第 1層から の結線の重みが取り出される。
[0661] そして S 1 2 3でそれらの結線の重みのう ちで、 絶対値の小さいものが 0 とされ、 S 1 2 4で結線が 1本だけ残った状態になったか否かが判定され、 ま だ 2本以上残っている場合には S 1 2 3からの処理 が操り返される。 そして、 S 1 2 4で結線が 1本だ けとなった場合には、 S 1 2 0に戻り、 第 2層の次 のユニッ トが取り出され、 S 1 2 1からの処理が橾 り返され、 第 2層の最後のュニッ 卜について処理が 終了した場合に全体の変換手続きが終了する。
[0662] 第 7 5図は第 6 2図で説明した変換手続き(2)の処 理のフローチャー トであり、 第 2層と第 3層、 第 5 2図では前件部メ ンバシッブ関数部と前件部メ ンバ シッブ関数出力部との結線に関する変換手続きの処 理フローチャー トである。 この処理は第 7 4図と類 似ているが、 S 1 2 9で結線を 2本残した状態で第 3層のュニッ トへの結線の削除処理を終了する点だ けが第 7 5図と基本的に異なっている。
[0663] 第 7 6図は第 3層と第 4層の間の変換手続き、 す なわち第 6 3図で説明した変換手続き (3)の処理フロ 一チャー トであり、 第 5 2図では前件部メ ンバシ ッ プ関数部とルール部との間の結線の削除処理に相当 する。 その処理は第 7 5図に示した第 2層と第 3層 の間の変換手続きと実質的に同じである。
[0664] 第 7 7図は第 4層と第 5層の間、 すなわちルール 部と後件部メ ンバシップ関数部との間の結線の削除 処理のフローチャー トであり、 S 1 3 5で第 4層の ユニッ トが 1 つ取り出され、 S 1 3 6で最後のュニ ッ トについての処理が終了していない場合には S 1 3 7でそのユニッ トから第 5層のユニッ トへの結線 の重みが取り出され、 S 1 3 8、 S I 3 9 によって 重みの大きい結線が 1本だけ残され、 S 1 3 6で最 後のュニ ッ 卜についての処理が終了するまで処理が 続行される。
[0665] 第 7 8図は第 6 5図で説明した変換手続き (5)、 す なわち第 5層から第 7層までの間の変換手続きとし ての結線の重みの並べ換えの処理フローチャー トで あり、 第 5 2図では後件部メ ンバシップ閩数部から 非フア ジィ化出力までに相当する部分における変換 手続きの処理フローチャー トである。 同図において. S 1 0で第 7層のュニッ ト、 すなわち出力ュニッ トが取り出され、 S 1 1 でそのュニッ トへの第 6 層からの結線の重みが全て取り出され、 S 1 4 2で 結線の重みが小さい順に並べ換えられ、 S 1 4 3で 並べ換えられた結線に対応して第 6層のュニッ トが 並べ換えられ、 S 1 4 4でその並べ換えに対応して 第 5層から第 6層への結線の重みが並べ換えられて 処理か終了する。
[0666] 次に本発明のニューロ · フア ジィ融合データ処理 システムのシステム構成を説明する。
[0667] 第 7 9図はシステムの全体構成ブロ ック図である, 同図において、 1 5 0 は階層型ニューラルネ ッ トヮ ークの実体を格納する階層ネ ッ ト ワーク格納部、 1 5 1 は階層型ニュ一ラルネ ッ トワークの前件部メ ン バシップ関数実現部、 後件部メ ンバシ ップ関数実分 部、 重心計算実現部、 ルール部をそれぞれ初期化す る初期化処理装置、 1 5 2 は階層型ニューラルネ ッ トワークに対象システムを学習させる学習処理装置. 1 5 3 は学習を行った階層型ニューラルネッ ト ヮー クからフ ァ ジィ モデルのメ ンバシップ閔数ゃファ ジ ィ ルールを抽出する処理を行う フア ジィ モデル抽出 処理装置、 1 5 4 は純ニューロをルール部全結合二 ユーロあるいはルール部プリ ワイ ャニューロに、 ま たルール部全結合二ユーロをルール部プリ ワイヤ二 ユーロに変換する機能をもつネ ッ ト ワーク構造変換 部、 1 5 5 はルール部全結合ニュー ロあるいはルー ル部プリ ワイ ャニューロからファ ジィ モデルを抽出 する機能をもつフア ジィ モデル抽出部、 1 5 6 はメ ンバシ ップ関数を抽出する処理を行うメ ンバシップ 関数抽出部、 1 5 7 はフア ジィ ルールを抽出する処 ! 理を行うフア ジィルール抽出部である。 以下、 第 7 9図の各部の詳細を説明する。
[0668] 階層ネ ッ トワーク格納部 1 5 0 には、 ルール部プ リ ワイヤニューロ、 ルール部全結合ニューロ、 ある t; いは純ニューロの構造をもつネ ッ トワーク と、 これ らのネ ッ トワーク構造が変換されている過程にある ネッ トワークなどが格納される。
[0669] 初期化処理装置 1 5 1 は初期化処理として、 例え ば階層ネ ッ トワーク としてルール部プリ ワイ ヤニュ 0 一口を設定する。 まず前件都メ ンバシ ッ プ関数の設 定については、 例えば第 5図でシグモイ ド閬数ュニ ッ ト 2 1 a 〜 2 1 dに対して第 8〜第 1 0図で説明 したように重みおよび閾値を設定する。
[0670] 次に後件部メ ンバシップ閬数の設定については第5 1 1図の方法によって行う。 第 8 0図は例えば第 5 図のルール部のュニッ ト 2 4 a , 2 4 b と後件部メ ンバシップ関数実現部のュニッ ト 2 5 a 〜 2 5 ηの 間の結合の重みの設定例である。 各横座標値に対応 する結合に対して、 その座標における後件部メ ンバ0 シップ関数のグレー ド値が設定されている。
[0671] また重心計算実現部内.の結合の重みは第 3 0図で 説明した方法によって初期設定される。 第 8 1図は その実施例である。 前述の 04)式に従って各横座標値 に対応する結合の重みが設定されている。
[0672] 5 最後にルール部におけるフア ジィ論理演算につい ては、 個々のフア ジィ ルールに対応して実現すべき 論理演算の種類に従って、 例えば第 5図のルール部 内のシグモイ ド関数ュニッ ト 2 3 〜 2 3 eの重み および閾値が第 1 2〜 1 5図で説明したような方法 によって設定される。
[0673] 第 8 2図は、 学習処理装置 1 5 2 の詳細説明図で ある。 図中、 階層ネ ッ トワーク部 1 5 9 内の 1 ' 一 hは入力層を構成する入力ユニッ ト、 1 一 i は中間 層 (複数段設けられる) の処理ユニッ ト、 1 — j は 出力層を構成する処理ュニッ トである。 また 1 6 0 は重み値管理部であり、 階層ネッ トワーク部 1 5 9 の階層間結線の重み値を管理する。 1 6 1 は重み値 変更部であり、 学習結果の誤差量によりバックプロ バゲーシヨ ン法に基づく重み値の更新を行う。 1 6 4 は学習信号格納部であり、 対象システムの入出力 関係により定まる入力信号パターンと出力信号バタ ーンの組からなる学習信号が格納されている。 なお 学習信号に舍まれる d P jは p番目の入力パラメータ に対する : i 層 j番目のュニッ トへの教師信号を表す < また 1 6 2 は学習信号提示部であり、 学習指示に 従って学習信号格納部 1 6 4から学習信号を取り出 し、 入力信号を階層ネ ッ トワーク部 1 5 9 の入力に 与えるとともに、 教師信号 d P jを重み値変更部 1 6 1 および後述される学習収束判定部 1 6 3へ出力す る。 1 6 3 は学習収束判定部であって、 階層ネ ッ トヮ ーク部 1 5 9 の出力信号 y P jと学習信号提示部 1 6 2からの教師信号 d P jとを受けて、 階層ネ ッ トヮー ク部 1 5 9のデータ処理機能の誤差が許容範囲に入 つたか否かを判定して、 その判定結果を学習信号提 示部 1 6 2に通知するものである。
[0674] 次に、 第 7 9図のフア ジィ モデル抽出処理装置 1 5 3 の詳細を第 8 3図〜第 8 9図に従って説明する < 第 8 3図は、 フア ジィ モデル抽出処理装置 1 5 3
[0675] 10 内のフア ジィルール抽出部 1 5 7 の詳細構成を示す < 第 8 3図において、 1 5 9 は階層ネ ッ トワーク部.
[0676] 1 5 7 はフア ジィルール抽出部、 1 6 0 は重み値管 理都、 1 6 5 はネ ッ ト ワーク構造管理部、 1 6 6 は ネ ッ ト ワーク構造読取部、 1 6 7 は重み値読取部、
[0677] 15 1 6 8 は論理演算データ読取部、 1 6 9 はシ ミ ュ レ — ト部、 1 7 0 は論理演箕解析部、 1 7 1 は論理演 箕データ管理部、 1 7 2 は論理演算管理部、 1 Ί 3 は論理演算入出力特性情報管理部である。
[0678] フア ジィ ルール抽出部 1 5 7 は、 階層ネ ッ ト ヮ一
[0679] 20 ク部 1 5 9 の状態を重み値管理部 1 6 0およびネ ッ トワーク構造管理部 1 6 5 の情報に従って解折し、 ルール部のュニッ トの論理演算の種別を識別して論 理素子化を計る。 論理演算データ管理部 1 7 1 は、 この論理演箕種別の識別に必要な所定の論理素子の
[0680] 25 特性情報等の管理データをフア ジィルール抽出部 1 5 7 に供給する。
[0681] 第 8 4 は、 フア ジィ モデル抽出処理装置 1 5 3 の 動作手順をフローで示したものである。
[0682] 最初に、 論理演算データ管理部 1 Ί 1 の論理演算 管理部 1 Ί 2及び論理演算入出力特性情報管理部 1
[0683] 7 3 が管理するこ とになる管理データについて説明 する。
[0684] ユニ ッ ト 1 力 x , y ( 0 ≤ X , y ≤ 1 ) という 2 つの値を入力するときには、 このユニッ ト 1 は、 前 述の第 1 2図で説明したように、
[0685] z = l ノ 1 +exp ( - Wx X - Wy Y + θ )
[0686] という出力値 ζ を出力する。 このようなユニッ ト 1 は、 重み値 Wx , Wy 及び閾値 0の値によって、 第
[0687] 8 5図に例示するように、 論理積演算や論理和演算 等の種々の論理演算等価な入出力処理を実行するこ とになる。 すなわち、
[0688] ① Wx = 12.0, Wy = 12.0, θ =6.0
[0689] のときには、 第 8 5図 (a)に示すように、 X , yのい ずれか一方が " 1 " をとるときに、 zが " 1 " を出 力するという論理和演算に相当する演算処理を実行 し、 また、
[0690] ② Wx =— 12.0, Wy = 12.0, θ =6.0
[0691] のときには、 第 8 5図 (b)に示すように、 X力く " 0 " . かつ y力く " 1 " をとるときに、 τが " 1 " を出力す るとい Λ論理積演箕に相当する演算処理を実行し、 また、
[0692] ③ Wx =— 12.0, Wy =— 12.0, θ =6.0 のときには、 第 8 5図 (c)に示すように、 どのような X , yが入力されてきても、 z力 " 0 " を出力する という演算を実行し、 また、
[0693] ④ Wx =12.0, Wy = 12.0, 6.0
[0694] のときには、 第 8 5図 (d)に示すように、 どのような X , yが入力されてきても、 z力、' " 1 " を出力する という演算を実行し、 また、
[0695]
[0696] のときには、 第 8 5図 (e)に示すように、 どのような X , yが入力されてきても、 zが X , yの平均値に 近い値を出力するという演算を実行し、 また、 ⑥ Wx =5.0 , Wy =0.0 , θ =2.5
[0697] のときには、 第 8 5図 (f)に示すように、 どのような X , yが入力されてきても、 zが Xに近い値を出力 するという演算 ( X演算) を実行する。
[0698] 論理演算データ管理部 1 Ί 1 の論理演算管理部 1 7 2 は、 例えば 2入力のユニッ ト 1 の重み値及び閻 値の符号を処理の簡単化のために正に揃えた場合に ユニッ ト 1 に対応付けられる論理演算と、 重み値及 び閽値の元の正負の符号とによって具体的にどのよ うな論理演算がュニッ ト 1 により実行されているの かという ことを管理することになる。
[0699] 第 8 6図に、 論理演算管理部 1 Ί 2 の管理データ の一実施例を図示する。
[0700] 第 8 6図 (a)は、 ュニッ ト 1 の重み値及び閻値の符
[0701] 号を正に揃えたときにュニッ ト 1 に和演算が対応し
[0702] ている場合に用いる管理データを示しており、 第 8
[0703] 6図 (b)は、 ユニッ ト 1 の重み値および閻値の符号を
[0704] 正に揃えたときにュニッ ト 1 に積演算が対応してい
[0705] る場合に用いる管理データを示しており、 第 8 6図
[0706] (c)は、 ュニッ ト 1 の重み値及び閾値の符号を正に揃
[0707] えたときにュニッ ト 1 に平均演算が対応している場
[0708] 合に用いる管理データを示しており、 第 8 6図 (d)は.
[0709] ユニッ ト 1 の重み値及び閻値の符号を正に揃えたと
[0710] きにュニッ ト 1 に Xがそのまま出力される演算が対
[0711] 応している場合に用いる管理データを示しており、
[0712] 第 8 6図 (e)は、 ュニッ ト 1 の重み値及び閽値の符号
[0713] を正に揃えたときにュニッ ト 1 に yがそのまま出力
[0714] される演算が対応している場合に用いる管理データ
[0715] を示している。
[0716] また、 図中、 「〜 x A N D y」 は第 8 5図 (b)の積
[0717] 演算を記述するものであり、 「恒偽」 は第 8 5図 (c)
[0718] の論理演算を記述するものであり、 「恒真」 は図 8
[0719] 5 (d)の論理演算を記述するものであり、 「 M E A N
[0720] ( X , y ) 」 は図 8 5 (e)の平均値演算を記述するも
[0721] 9 のであり、 「 x」 は図 8 5 (f)のそのまま演算を記述
[0722] するものであり、 「〜 x 」 は X の否定すなわち 「 (
[0723] 1 - X ) J を意味するものである。 一方、 論理演算データ管理部 1 Ί 1 の論理演算入 出力特性情報管理部 1 Ί 3 は、 例えば 2入力 1 出力 において、 ュニッ ト 1 に重み値及び閻値の符号を正 に揃える等の正規化を行った後にマッチングをとる ために参照すべき種々の論理演算の入出力データを 管理するこ とになる。
[0724] すなわち、 図 8 7および図 8 8 に示すように、 X : yのいずれか小さい方を出力する論理積演算や、 X : yのいずれか大きい方を出力する論理和演算や、 ( X X y ) を出力する代数積演算や、 ( X + y — X y ) を出力する代数和演算や、 ( 0 V 〔 x 十 y — 1 〕 ) ( Vは論理和記号)
[0725] を出力する限界積演算や、
[0726] ( 1 A ( X + y ) ) ( Λは論理積記号) を出力する限界和演算や、 Xが 1 ならば yを出力し. y力 1 ならば Xを出力し、 X と yのいずれも力 1 で ないならば 0を出力するという激烈積演算や、 Xが 0 ならば yを出力し、 yが 0ならば Xを出力し、 X と yのいずれもが 0でないならば 1 を出力するとい う激烈和演算や、 上述の平均演算や Xそのまま演算 や yそのまま演算や、 恒偽演算ゃ恒真演箕等といつ た種々の論理演算の入出力データを管理する。
[0727] 次に、 ネ ッ トワーク構造管理部 1 6 5 と、 フ ア ジ ィルール抽出部 1 5 7を構成するネ ッ トワーク構造 読取部 1 6 6、 重み値読取部 1 6 7、 論理演算デー タ読取部 1 6 8、 シ ミ ュ レー ト部 1 6 9及び論理演 箕解折部 1 7 0が実行する機能について説明する。
[0728] ネ ッ ト ワーク構造管理部 1 6 5 は、 階層ネ ッ ト ヮ —ク部 1 5 9がどのようなネ ッ トワーク構造を持ち. ユニ ッ ト 1 にいかなる関数演算機能が割り付けられ ているのか等といつた階層ネ ッ トワーク構成に係る 全ての情報を管理する。
[0729] % ッ ト ワーク構造読取部 1 6 6 は、 ネ ッ ト ワーク 構造管理部 1 6 5 に保持されている情報を読み取り . 論理演算解折部 1 7 0 に通知する。
[0730] 重み値読取部 1 6 7 は、 このネッ トワーク構造管 理部 1 6 5 の管理情報を参照しつつ、 重み値管理部
[0731] 1 6 0からルール部のュニッ ト 1 の重み値及び閡値 の学習値を読み取って論理演算解析部 1 7 0 に通知 する。
[0732] 論理演算データ読取部 1 6 8 は、 論理演算管理部
[0733] 1 7 2及び論理演算入出力特性情報管理部 1 7 3 の 管理データを読み取って、 論理演算解折部 1 7 0に 通知する。
[0734] シ ミ ュ レー ト部 1 6 9 は、 論理演算解折部 1 7 0 からルール部のュニッ ト 1 の符号を揃えられた重み 値および閾値の学習値が通知されると、 このュニッ ト 1 の関数演算機能をシ ミ ュ レー ト して、 論理演算 入出力特性情報管理部 1 7 3が管理する入力範囲の 入力値を与えたときの出力値を求めるこ とで、 ュニ ッ ト 1 の入出力データ特性情報を採取するよう処理 する。
[0735] 論理演算解折部 1 7 0 は、 論理演算データ読取部 1 6 8から論理演算データ管理部 1 7 1 の管理デー タが通知されると、 シミ ュ レー ト部 1 6 9から与え られる入出力データ特性情報に従って、 ルール部の 各ュニッ ト 1 の実行している論理内容を解折するこ とで、 階層ネ ッ トワーク部 1 5 9からフア ジィルー ルを抽出する。
[0736] 次に、 図 8 4に示すフローチャー トに従って、 フ ァ ジィモデル抽出処理装置 1 5 3が実行する処理の 一実施例について詳細に説明する。
[0737] 図 7 9 のネッ トワーク構造変換部 1 5 4 は、 階層 ネッ トワーク都 1 5 9からフアジィルールを抽出す るために、 先ず最初に、 ステップ S 1 7 5で示すよ うに、 例えば第 4 9図で前件部メ ンバシ ップ関数出 力部とルール部との間の結線 (内部結合) の削除処 理を実行する。 この結線の削除処理は、 種々の方法 を採ることが可能である。
[0738] ここでは、 ルール部のユニッ ト 1 に入力される結 線を 2本とし、 かっこの 2本の結線が同一の入力変 数を扱う ものとならないことを条件にして、 最も大 きな重み値 (絶対値) を持つ結線と次に大きな重み 値 (絶対値) を持つ結線とを選択することで行う。 続いて、 ネッ トワーク構造変換部 1 5 4 は、 ステ ッブ S 1 7 6で示すように、 ルール部と後件部メ ン バシップ関数出力部との間の結線の削除処理を実行 する。
[0739] このようにして結線の簡略化が完了すると、 図 8 3 の論理演算解折部 1 7 0 は、 ステ ッ プ S 1 7 7 で 示すように、 ルール部のユニッ トの論理素子化処理 を実行する。
[0740] この論理素子化処理を図 8 9に従って説明するな らば、 先ず最初に、 Aで示すルール部のュニ ッ トと Bで示す後件部メ ンバシッブ閬数出力部のュニッ ト との間の結線の重み値の符号を調べ、 負であるなら ば正にするとともに、 Aのュニッ ト と前件部メ ンバ シ ップ関数出力部のュニッ トとの間の対応する結線 の重み値 (閾値を舍む) の符号を反転させる。
[0741] 次に、 Aのユニッ トと前件部メ ンバシ ップ関数出 力部のュニ ッ トとの間の結線の重み値 (閻値を舍む) の正負の符号を記録するとともに、 負である場合に は正に反転する。 続いて、 シ ミ ュ レー ト部 1 6 9を 起動して、 Aのュニッ トの入出力データ特性情報を 得るとともに、 得られた出力値の最大値 aax と最小 値 mi n とを使用して、 下式に従って出力値の正規化 を行う とともに、
[0742] Z = z — mi n ) / ( max — ni n )
[0743] 但し、 z : 変換前の出力値
[0744] Z : 変換後の出力値 下式に従って Aのユニッ トと Bのユニッ トとの間の 結線の重み値を変換する。
[0745] W = w X ( max — mi n )
[0746] 但し、 w : 変換前の重み値
[0747] W : 変換後の重み値
[0748] 続いて、 正規化された入出力データと、 論理演算 入出力特性情報管理部 1 Ί 3の管理する入出力デー 夕 との類似度を測定することで、 最も類似する論理 演算を特定するとともに、 この論理演算と記録した 重み値 (閻値) の正食の符号データとに従って論理 演算管理部 1 Ί 2の管理データを参照することで、 Aのュニッ トの実行している論理内容を特定する。 そして、 恒偽ゃ恒真と判定されるュニッ トの削除処 理を実行する。
[0749] ルール部のュニッ トの論理素子化処理を完了する と、 ネッ トワーク構造変換部 1 5 4 は、 続く ステツ ブ S 1 7 8で、 必要に応じてルール部のュニッ トの 削除処理を実行する。 このようにして、 図 5 7に示 すような論理的に表現された階層ネッ トワーク部 1 5 9を得ることができるようになる。 そして、 ファ ジィルール抽出都 1 5 7 は、 最後に、 ステップ S 1 7 9で、 この得られた階層ネッ トワーク部 1 5 9の データ処理の論理演算記述をフア ジィルールとして 出力して処理を終了する。
[0750] 以上においては、 本発明の特徴とするルール部プ リ ワ イ ヤニューロ、 ルール部全結合ニューロの構成 純ニューロからルール部プリ ワイヤニューロ、 ルー ル部全結合ニューロへの変換、 ルール部プリ ワイヤ ニューロからのファジィ モデルの抽出等について述 ベてきたが、 次にこのルール部プリ ワイヤニューロ の学習について述べる。
[0751] ルール部プリ ワイャニューロの基本構成は第 4図 に示されるが、 同図中入力部 1 5 は入力信号を分配 するだけのものであり、 学習対象は前件部メ ンバシ ップ関数実現部 1 6 、 ルール部 1 Ί、 および後件部 メ ンバシ ップ関数実現 · 非フア ジィ化部 1 8 の 3つ の部分となる。 これら 3つの部分の学習方法として 第 9 0〜 9 9図に示す 10通りがあげられる。 まず、 各学習法を構成するそれぞれ複数の過程を以下に説 明する。
[0752] 第 1 の学習方法
[0753] 〔第 1過程〕 前件部メ ンバシッブ閬数実現部 1 6 に予め持っている知識 (図中は 「先験的知識」 とし て示す) に基づき又は乱数を用いて重み値を初期設 定すると共に、 ルール部 1 7及び後件部メ ンバシ ッ プ関数実現 · 非フア ジィ化部 1 8に予め持っている 知識に基づいて重み値を初期設定する ;
[0754] 〔第 2過程〕 学習データを使用して前件部メ ンバ シ ップ閬数実現部 1 6 の重みを学習せる ;
[0755] 〔第 3過程〕 学習データを使用して前件部メ ンバ シッブ関数実現部 1 6 、 ルール部 1 7及び後件部メ ンバシ ップ関数実現 · 非フア ジィ化部 1 8の全体の 重みを学習させる ;
[0756] 第 2の学習方法
[0757] 〔第 1過程〕 ルール部 1 7 に予め持っている知識 に基づき又は乱数を用いて重み値を初期設定すると 共に、 前件部メ ンバシップ関数実現部 1 6及び後件 部メ ンバシップ関数実現 · 非フア ジィ化部 1 8に予 め持っている知識に基づいて重み値を初期設定する 〔第 2過程〕 学習データを使用してルール部 1 7 の重みを学習させる ;
[0758] 〔第 3過程〕 学習データを使用して前件部メ ンバ シ ッブ関数実現部 1 6、 ルール部 1 7及び後件部メ ンバシップ関数実現 · 非フアジィ化部 1 8の全体の 重みを学習させる ;
[0759] 第 3 の学習方法
[0760] 〔第 1過程〕 ルール部 1 7 に予め持っている知識 に基づき又は乱数を用いて重み度を初期設定すると 共に、 前件部メ ンバシ 'ンプ閬数実現部 1 6及び後件 部メ ンバシップ関数実現 · 非フアジィ化部 1 8に予 め持っている知識に基づいて重み値を初期設定する 〔第 2過程〕 学習データを使用してルール部 1 Ί の重みを学習させる ;
[0761] 〔第 3過程〕 学習データを使用して前件部メ ンバ シ ップ閬数実現部 1 6 の重みを学習させると ; 〔第 4過程〕 学習データを使用して前件部メ ンバ シッブ関数実現部 1 6、 ルール部 1 Ί及び後件部メ ンバシップ関数実現 · 非フア ジィ化部 1 8の全体の 重みを学習させる ;
[0762] 第 4 の学習方法
[0763] 〔第 1過程〕 前件部メ ンバシ ッ プ関数実現部 1 6 に予め持っている知識に基づき又は乱数を用いて重 み値を初期設定すると共に、 ルール部 1 7及び後件 都メ ンバシップ関数実現 · 非フアジィ化部 1 8に予 め持っている知識に基づいて重み値を初期設定する 〔第 2過程〕 学習データを使用して前件部メ ンバ シ ッ プ閬数実現部 1 6の重みを学習させる ; 〔第 3過程〕 学習データを使用してルール部 1 Ί の重みを学習させる ;
[0764] 〔第 4過程〕 学習データを使用して前件部メ ンバ シップ関数実現部 1 6、 ルール部 1 7及び後件部メ ンバシップ関数実現 · 非ファジィ化部 1 8の全体の 重みを学習させる ;
[0765] 第 5 の学習方法
[0766] 〔第 1過程〕 前件部メ ンバシ ッ プ関数実現部 1 6 及びルール部 1 7に予め持っている知識に基づき又 は乱数を用いて重み値を初期設定すると共に、 後件 部メ ンバシップ関数実現 · 非ファジィ化部 1 8に予 め持っている知識に基づいて重み値を初期設定する 〔第 2過程〕 学習データを使用して前件部メ ンバ シッブ関数実現部 1 6及びルール部 1 7 の重みを同 時に学習させる ;
[0767] 〔第 3過程〕 学習データを使用して前件部メ ンバ シ ップ蘭数実現部 1 6 、 ルール部 1 7及び後件部メ ンバシ ップ関数実現 · 非フア ジィ化部 1 8の全体の 重みを学習させる ;
[0768] 第 6 の学習方法
[0769] 〔第 1過程〕 前件部メ ンバシ ップ関数実現部 1 6 に予め持っている知識に基づき又は乱数を用いて重 み値を初期設定すると共に、 ルール部 1 7及び後件 部メ ンバシ ップ関数実現 · 非フア ジィ化部 1 8に予 め持っている知識に基づいて重み値を初期設定する 〔第 2過程〕 学習データを使用して前件部メ ンバ シ ップ関数実現部 1 6 の重みを学習させる ; 〔第 3過程〕 学習データを使用して後件部メ ンバ シッブ関数実現 · 非ファ ジィ化部 1 8の重みを学習 させる ;
[0770] 〔第 4過程〕 学習データを使用して前件部メ ンバ シ ップ関数実現部 1 6 、 ルール部 1 7及び後件部メ ンバシップ関数実現 ' 非フア ジィ化部 1 8 の全体の 重みを学習させる ;
[0771] 第 Ί の学習方法
[0772] 〔第 1過程〕 ルール部 1 7 に予め持っている知識 に基づき又は乱数を用いて重み値を初期設定すると 共に、 前件部メ ンバシッブ関数実現部 1 6及び後件 部メ ンバシップ関数実現 * 非フアジィ化部 1 8に予 め持っている知識に基づいて重み値を初期設定する 〔第 2過程〕 学習データを使用してルール部 1 7 の重みを学習させる ;
[0773] 〔第 3過程〕 学習データを使用して後件部メ ンバ シップ関数実現 · 非フアジィ化部 1 8の重みを学習 させる ;
[0774] 〔第 4過程〕 学習データを使用して前件部メ ンバ シッブ関数実現部 1 6 、 ルール部 1 7及び後件部メ ンバシップ閩数実現 · 非フアジィ化部 1 8の全体の 重みを学習させる ;
[0775] 第 8の学習方法
[0776] 〔第 1過程〕 ルール部 1 7に予め持っている知識 に基づき又は乱数を用いて重み値を初期設定すると 共に、 前件部メ ンバシッブ関数実現部 1 6及び後件 部メ ンバシ ップ鬨数実現 · 非フア ジ ィ化部 1 8に予 め持っている知識に基づいて重み値を学習させる ; 〔第 2過程〕 学習データを使用してルール部 1 Ί の重みを学習させる ;
[0777] 〔第 3過程〕 学習データを使用して前件部メ ンバ シップ閬数実現部 1 6の重みを学習させる ; 〔第 4過程〕 学習データを使用して後件部メ ンバ シップ関数実現 · 非ファジィ化部 1 8の重みを学習 させる ;
[0778] 〔第 5過程〕 学習データを使用して前記前件部メ ンバシップ関数実現部 1 6 、 ルール部 1 7及び後件 部メ ンバシ ップ関数実現 · 非フア ジィ化部 1 8 の全 体の重みを学習させる ;
[0779] 第 9の学習方法
[0780] 〔第 1過程〕 前件部メ ンバシ ッ プ関数実現部 1 6 に予め持っている知識に基づき又は乱数を用いて重 み値を初期設定すると共に、 ルール部 1 7及び後件 部メ ンバシ ップ関数実現 · 非フア ジィ化部 1 8に予 め持っている知識に基づいて重み値を初期設定する 〔第 2過程〕 学習データを使用して前記前件部メ ンバシップ関数実現部 1 6 の重みを学習させる ; 〔第 3過程〕 学習データを使用してルール部 1 Ί の重みを学習させる ;
[0781] 〔第 4過程〕 学習データを使用して後件部メ ンバ シッブ関数実現 · 非ファジィ化部 1 8の重みを学習 させる。
[0782] 〔第 5過程〕 学習データを使用して前件部メ ンバ シップ関数実現部 1 6 、 ルール部 1 Ί及び後件部メ ンバシ ップ関数実現 · 非フア ジィ化部 1 8の全体の 重みを学習させる ;
[0783] ように構成する。
[0784] 第 1 0 の学習方法
[0785] 〔第 1過程〕 前件部メ ンバシップ関数実現部 1 6 及びルール部 1 7に予め持っている知識に基づき又 は乱数を用いて重み値を初期設定すると共に、 後件 部メ ンバシップ関数実現 · 非フア ジィ化部 1 8に予 め持っている知識に基づいて重み値を初期設定する 〔第 2過程〕 学習データを使用して前記前件部メ ンバシ ッブ閬数実現部 1 6及びルール部 1 Ί の重み を同時に学習させる ;
[0786] 〔第 3過程〕 学習データを使用して後件部メ ンバ シッブ関数実現 · 非ファジィ化部 1 8 の重みを学習 させる。
[0787] 〔第 4過程〕 学習データを使用して前件部メ ンバ シ ッブ関数実現部 1 6 、 ルール部 1 7及び後件部メ ンバシ ップ関数実現 · 非ファジィ化部 1 8の全体の 重みを学習させる ;
[0788] ように構成する。
[0789] 以上の第 1から第 1 0の学習方法において、 最初 に重みを学習する部分の第 1過程における重み初期 値の設定は、 予め持っている知識で設定可能な重み は該知識で初期設定し、 その他は乱数を用いて初期 設定してもよい。 更に、 後述するように、 第 1過程 の重み値の初期設定を行った後の各過程の学習開始 時に、 前件部メ ンバシ ッブ関数実現部 1 6 、 ルール 部 1 7及び後件部メ ンバシ ッブ鬨数実現 · 非ファジ ィ化部 1 8の内、 学習対象となっている部分の結線 毎に設けられた学習フラグをオンすると共に、 学習 対象となっていない部分の結線毎に設けられた学習 フラグをオフし、 オン状態にある学習フラグを有す る結線の重み値のみを学習処理により最適化する。 このようなルール部プリ ワイ ャニュ一口の学習方 法は次のように実行される。
[0790] まず、 ルール部ブリ ワイヤニュー口の前件部メ ン バシップ関数実現部、 ルール部及び後件部メ ンバシ ップ関数実現 · 非フア ジィ化部の内、 最初に重みを 学習する部分については予め持っている知識に基づ いた重み値の初期設定または乱数を用いた重み値の 初期設定を行い、 2回目以降に重みを学習する部分 には予め持っている知識に基づいて重み値の初期設 定を行う。
[0791] 続いて、 学習処理を起動し、 学習用の入力バター ンをルール部プリ ワイ ヤニューロに提示し、 ルール 部プリ ワイ ヤニューロからの出カバターンが、 入力 パターンに対し望ましい出力パターンとなる学習出 カバターン (教師信号) に略一致するように初期設 定した重み値を修正する、 例えばバックプロバゲ一 ショ ン法による重みの学習を行う。
[0792] この重み学習は、 最終的にプリ ワイヤニューロ全 体の重みを学習するものであり、 最終段階の重み学 習に先立ち次の①〜⑩の重み学習が前段階で行われ る。
[0793] ① 前件部メ ンバシップ関数実現部のみ行う ;
[0794] ② ルール部のみ行う ;
[0795] ③ ルール部 前件部メ ンバシップ関数実現部の順 番に行う ;
[0796] ④ 前件部メ ンバシ ッブ関数実現部—ルール部の順 番に行う ;
[0797] ⑤ 前件部メ ンバシ ップ関数実現部とルール部を同 時に行う ;
[0798] ⑥ 前件部メ ンバシ ップ関数実現部→後件部メ ンバ シップ関数実現 ♦ 非フア ジィ化部の順番に行う ;
[0799] ⑦ ルール部→後件部メ ンバシ ップ関数実現 · 非フ ァ ジィ化部の順番に行う ;
[0800] ⑧ ルール部—前件部メ ンバシ ッ プ関数実現部→後 件部メ ンバシッブ関数実現 · 非フア ジィ化部の順番 に行う ;
[0801] ⑨ 前件部メ ンバシップ閬数実現部—ルール部—後 件部メ ンバシ ップ関数実現 · 非ファジィ化部の順番 に行う ;
[0802] ⑩ 前件部メ ンバシ ップ関数実現部及びルール部を 同時に行い→次に後件部メ ンバシ ップ関数実現 . 非 フ ア ジ ィ化部を行う ;
[0803] このよ う に前件部メ ンバシ ップ閬数実現部、 ルー ル部及び後件部メ ンバシツブ関数実現 · 非フアジィ 化部の少なく とも 1つの部分の重みを学習した後に、 最終的にルール部プリ ヮィャニューロ全体を学習さ せることで、 前段階で学習された前件部メ ンバシ ッ プ関数実現部、 ルール部及び後件部メ ンバシ ップ関 数実現 · 非フアジィ化部の少なく とも 1つの重みの 学習結果に合わせたルール部プリ ワイヤニューロ全 体の重みの再調整ができる。
[0804] また予め持っている知識を導入した重みの初期設 定により、 学習が容易にでき学習効率を高めること ができる。
[0805] 更に、 乱数を利用した重みの初期設定により、 二 ユーロによる学習機能を最大限に引き出すことがで きる。
[0806] 第 1 0 0図〜 1 0 9図は、 ルール部プリ ワイ ヤ二 ユーロの学習方法の第 1実施例から第 1 0実施例の 各処理手順を示した学習動作フ ロー図である。 この 第 1 0 0〜 1 0 9図の手順による学習方法の対象と なるルール部プリ ワイヤニューロは、 例えば第 1 1 0図に示す前件部メ ンバシ ッブ関数実現部 1 6 、 ル ール部 1 7及び後件部メ ンバシ ッブ関数実現 · 非フ ァジィ化部 1 8 で成るフア ジィ制御ルールを実現す るための階層ネッ トワーク構造を有する。
[0807] ここでルール部プリ ワイ ヤニューロとは、 ルール 部 1 7が前段の前件部メ ンバシ ップ関数実現部 1 6 及び又は後段の後件部メ ンバシ ッブ関数実現 · 非フ ァ ジィ化部 1 8 との間で全ュニッ ト間を内部結合せ ずに制御ルールに従って一部を内部結合したネ ッ ト ワーク構造をもち、 それらの間でュニッ ト間の全て を内部結合したルール部全結合ニューロに対比され る。 第 1 0 0〜 1 0 9図に示した第 1〜第 1 0実施例 の学習処理にあっては、 次の 6つのステップから成 る処理を行う。
[0808] 〔第 1 ステップ〕
[0809] 前件部メ ンバシップ関数実現部 1 6の重み Cab,
[0810] Cbcを、 与えられたメ ンバシップ関数を実現するよ うに初期設定する。 尚、 Cab, Cbcは後述するよう に重みを初期設定する結線の結線グループ番号であ る。
[0811] 〔第 2ステップ〕
[0812] ルール部 1 7の重み Ccd, Cdeを、 与えられたフ ァジィルールを実現するように初期設定する。
[0813] 〔第 3 ステップ〕
[0814] 後件部メ ンバシッブ関数実現 · 非フア ジィ化部 1 8 の重み Ceiを、 与えられたメ ンバシ ップ関数を実 現するように初期設定する。
[0815] 〔第 4 ステップ〕
[0816] 重心計算実現部 1 8 bの重み Cfgを、 重心計箕を 実現するように初期設定する。
[0817] 〔第 5 ステップ〕
[0818] 学習処理を行うフヱーズ毎のニューロングループ を示すフェーズ ' グループ対応表及び各ニューロ ン グループに属する結線グループを示すグループ · 結 線対応表の設定を行う。
[0819] 〔第 6ステップ〕 学習スケジューラを起動してバッ クプロバゲーシ ョ ン法により学習処理を行う。
[0820] 以上の 6つのステツプから成る学習処理において. 第 1〜第 3のステ ッ プの重み値の初期設定は、 各実 施例毎に次のようにしている。 まず第 6 ステップの 学習スケジューラの起動により最初に重み学習を行 う部分、 すなわちフェーズ 1で重みを学習する部分 については予め持っている知識の導入に基づいた重 み値の初期設定、 または乱数を用いたラ ンダムな重 み値の初期設定を行う。 一方、 2回目以降 (第 2 フ ユーズ以降) で重みを学習する部分については予め 持っている知識の導入に基づく重み値の初期設定の みを 亍っ。
[0821] 第 4 ステツプの重心計算実現部 1 8 bに対する重 み値の初期設定は全ての実施例について同じである, また第 5ステップにおけるフェーズ * グループ対 応表の設定は、 各実施例における第 6 ステ ップの学 習フヱーズの変更に従って固有のフヱ一ズ . グルー プ対応表が設定される。 一方、 グループ · 結線対応 表は全ての実施例について共通に設定される。
[0822] 更に第 6ステツブの重み学習の実行にあつては、 全ての実施例において重み学習の最終段階、 即ち最 後のフヱーズでニューロ ン全体の重み学習、 即ち前 件部メ ンバシップ関数実現部 1 6 、 ルール部 1 7及 び後件部メ ンバシ ップ閩数実現 · 非フア ジィ化部 1 8の全体の重みを学習する点で共通している。 この 最終フユ一ズで行うニューロ全体の重み学習に対し 前段の重み学習については各実施例固有の重み学習 を行うようにしている。
[0823] 以下、 第 1 0 0図の第 1図実施例の学習動作フロ 一を例にとって第 1〜第 6ステップのそれぞれに分 けてルール部プリ ワイ ヤニューロ 1 2の学習方法を 詳細に説明する。
[0824] 第 1 1 0図のルール部プリ ワイヤニューロにおい て、 ルール部 1 Ί は前件部ルール部 2 4 8 と後件部 ルール部 2 4 9で構成される。 前件部ルール部 2 4
[0825] 8 は、 入力変数 X , 〜X nのメ ンバシッブ閬数 X , ( S A ) 〜X n ( L A) のグレード値を入力として. 各ルールのグレード値を出力する。 また後件部ルー ル部 2 4 9 は、 ルールのグレー ド値 L H S— 1 〜 L
[0826] H S— nを入力として出力変数のメ ンバシ ップ閼数 y ( S A) 〜 y ( L A) の拡大または縮小率を出力 する。
[0827] 更に後件部メ ンバシッブ閬数実現 · 非ファジィ化 部 1 8 (重心計算実現部を舍む) は、 出力変数のメ ンバシップ関数 y ( S A ) 〜 y ( L A ) の拡大また は縮小率を入力して、 出力変数 Yの値を出力する。
[0828] ここで、 前件部ルール部 2 4 8 と後件部ルール部 2 4 9を合わせたルール部 1 7 は、 入力も出力もメ ンバシップ関数のグレー ド値であるので、 これを力 スケー ド結合することができ、 多段推論が可能であ る。
[0829] また、 各モジュール 1 6 , 2 4 8 , 2 4 9 , 1 8 間を結ぶニューロンは共用できる。 例えば前件部メ ンバシップ閩数実現部 1 6の出力ニューロンと前件 部ルール部 2 4 8の入力ニュ一ロンは実際には同じ ものでよい。
[0830] 更に第 1 1 0図では各ュニッ トを 1つのニューロ として説明しているが、 ュニッ トの機能が特定でき ているものについてはニューロとせずにユニッ ト機 能を実現するゲー ト回路、 演算器等としても良い。 第 1 1 1図は第 5図のルール部全結合ニューロに 類似したルール部プリ ワイヤニューロについて、 そ の学習方法を実現するためのニューロ ングループと 結線グループを示す。
[0831] 第 1 1 1図において、 ニューロ ングループは G a 〜 G gの 7つであるが.、 この内、 入力部のニューロ ングループ G a と重心計算実現部 1 8 bのニューロ ングループ G gの 2つについては単なる分離及び加 算合成を行うにすぎないことから、 バックプロバゲ ーショ ン法による重みの学習対象からは除いている < 従ってバックプロバゲーショ ン法による重みの学習 対象に入るニューロングループは C b , G c , G d ; G e及び G ί の 5つとなる。 一方、 各ニューロング ループの入力結線を示す結線グループは G ab , C f g の 6つであり、 学習対象となるニューロ ングループ の前段に位置する入力結線の重み値をバックブロバ ゲーショ ン法により学習する。
[0832] 第 1 1 1図に示したルール部プリ ワイヤニューロ に対して、 まず第 1 0 0図の S 1 8 1 〜A 1 8 4の 第 1〜第 4 のステツブで各部の初期設定が行われる が、 この初期設定については既に詳述したのでここ では省略する。 初期設定が終了すると第 5 ステ ップ, すなわち S 1 8 5 の処理が行われる。
[0833] 〔学習スケジュールの設定〕 第 1 0 0図のステップ S 1 8 5にあっては、 初期 設定の終了に続いてルール部プリ ワイヤニューロに 重み学習を行わせるための学習計画、 すなわち学習 スケジュールの設定を行う。 この学習スケジュール は第 1 1 2図 (a)に示すようにフェーズ ♦ グループ対 応表の設定と同図 に示すグループ · 結線対応表の 設定の 2つを行う。
[0834] まずフューズ · グループ対応表は、 学習フューズ の進行に対し、 各フェーズで学習対象となるニュー ロングループを指定する。 第 1 の学習法にあっては、 重み値の初期設定後に前件部メ ンバシップ関数実現 部 1 6 とニューロ全体の学習を順番に行う ことから、 フヱーズ 1 の学習対象グループとして前件部メ ンバ シップ関数実現部 1 6に属する第 1 1 1図のニュー ロングループ G b , G c の 2つを設定し、 フェーズ 2ではニューロ全体の重みを学習することから第 1 1 1図のニューロングループ G b , G c, G d , G e , G f の 5つを設定する。
[0835] 一方、 グループ · 結線対応表はルール部プリ ワイ ャニュ一口における各ニューロ ングループ G a〜 G g と、 入力結線グループ C ab〜 C f gの対応関係を第 1 1 2図 (k)に示すように設定する。
[0836] このようなフヱ一ズ · グループ対応表及びグルー プ · 結線対応表の設定が終了すると第 1 0 0図のス テツプ S 1 8 6に進んで学習スケジューラを起動し. 実際にルール部プリ ワイヤニューロに学習データを 与えてバックプロパゲーショ ン法により重みの学習 を実行する。
[0837] 〔学習スケジューラの処理と構成〕
[0838] 第 1 1 3図はルール部プリ ワイ ヤニューロの学習 処理フロー図を示す。 この処理フロー図は例えば第 1 1 4図に示す装置構成により実現するこ とができ る。
[0839] まず、 学習処理のための装置構成を説明すると、 第 1 1 4図において、 ルール部プリ ワイヤニューロ
[0840] 1 5 0に対しては学習処理装置 1 5 2 と学習ュニッ ト 2 6 1が設けられる。
[0841] 学習処理装置 1 5 2 は第 8 2図の学習信号提示部
[0842] 1 6 2 に相当する学習スケジューラ 1 6 2 aを有し. 学習スケジューラ 1 6 2 a に対しては制御入力とそ の制御入力に対する望ましい制御出力との対でなる 学習信号を格納した学習信号格納部 1 6 4、 第 1 1 2図に示したフヱ一ズ ' グループ対応表を格納した フェーズ ' グループ対応テーブル 2 5 8、 及びグル ーブ · 結線対応表を格納したグループ · 結線対応テ 一ブル 2 5 9、 更に学習収束判定部 1 6 3が設けら れる。
[0843] 一方、 学習ユニッ ト 2 6 1 には学習指示読取部 2 6 2、 学習フラグ設定部 2 6 3及びバックプロバゲ ーショ ン法により重み値を変更する重み変更部 1 6 1が設けられる。
[0844] 更に、 第 1 1 4図における装置構成の特徴は、 ル ール部プリワイヤニューロ 1 5 0における各ュニッ トを結ぶ結線に学習調整器 2 6 0が設けられている 点である。
[0845] 学習調整器 2 6 0 は第 1 1 5図に示す構成を有す る。 尚、 学習調整器 2 6 0 と共に重み変更部 1 6 1 を示している。
[0846] 学習調整器 2 6 0にはフラグ保存部 2 6 5、 重み 変更情報読取部 2 6 6及び重み変更量調整部 2 6 7 が設けられる。
[0847] 一方、 重み変更部 1 6 1 にはバックブ口バゲーシ ョ ン法による重み演算を実行する重み演箕部 2 6 8、 重み保存部 2 6 9及び重み変更量保存部 2 7 0が設 けられる。 このように、 ルール部プリ ワイヤニューロ 1 5 0 の結線毎に学習調整器 2 6 0を設けることで、 学習 処理装置 1 5 2 の学習スケジューラ 1 6 2 a により ルール部プリ ワイヤニューロ 1 5 0に対し結線の重 み値を変更するか否かを決定する学習フラグを設定 することができ、 学習フラグが有効、 即ちフラグォ ンとなっている結線に対してのみ重みの学習を行う ことが可能となる。
[0848] また、 学習調整器 2 6 0に対するフラグセ ッ トは- ファジィルールを実現可能なネ 'ン トワーク構造を持 たない一般的な階層ネッ トワーク、 例えば純ニュー 口に対し、 フアジィルールを実行可能な前件部メ ン バシップ関数実現部、 ルール部及び後件部メ ンバシ ップ関数実現 · 非ファジィ化部で成る階層ネッ トヮ ーク構造を特定する際にも使用される。
[0849] フ ア ジ ィ ルールに適合した階層ネ ッ ト ワークを構 成した状態でバックプロバゲーショ ン法により実際 に学習させる際の重み値の調整は次のように行われ る
[0850] 第 1 1 5図において、 学習調整器 2 6 0の重み変 更情報読取部 2 6 6が重み変更部 1 6 1 の重み変更 量保存部 2 7 0に対し重み演算部 2 6 8より重みの 変更量が書き込まれているか否かを監視している。 重み変更情報読取部 2 6 6で重みの変更があったこ とを検知すると、 その旨を重み変更量調整都 2 6 7 に伝える。 重み変更量調整部 2 6 7 はフラグ保存部 2 6 5 の学習フラグを調べ、 学習フラグがオンであ れば何もしない。 即ち、 重み変更量保存部 2 7 0へ の書込みを有効とする。 一方、 学習フラグがオフで あれば、 重み変更量調整部 2 6 7 は重み変更部 1 6 1 の重み変更量保存部 2 7 0にゼロを設定し、 重み 変更を無効とする。 この学習スケジューラのハード ウェアは特願昭 63- 227825 号の 「ネ ッ トワーク構成 データ処理装置の学習方式」 に示される。
[0851] 〔学習スケジューラの処理内容〕 次に第 1 1 3図の学習処理フローを参照して第 1 1 4 , 1 1 5図の装置構成に従った学習法の第 1実 施例におけるルール部プリ ワイヤニューロの学習処 理をフヱーズ 1 とフヱーズ 2に分けて説明する。
[0852] ①フェーズ 1
[0853] まず学習処理装置 1 5 2 の学習スケジューラが起 動される と、 ステップ S 2 5 1 (以下、 「ステップ」 は省略) で学習フェーズの進行を示すフューズカウ ンタ i を i = l にセ ッ ト して S 2 5 2 に進み、 フエ ーズ ' グループ対応テーブル 2 5 8を参照して学習 フェーズ i = 1 に対応するニューロ ングループ番号 G b , G cを読み出す。
[0854] 続いて S 2 5 3 に進んでニューロ ングループ番号 G b , G c に対応した結線グループ番号 C ab, C be をグループ · 結線対応テーブル 2 5 9を参照して読 出す。 続いて S 2 5 4 に進み結線グループ番号 Cab, Cbcを出力して結線グループ番号 Cab, Cbcに属す る結線に設けられた学習調整器 2 6 0の学習フラグ をオンする。
[0855] 具体的には学習処理装置 1 5 2の学習スケジユー ラ 1 6 2 aから学習ユニ ッ ト 2 6 1 の学習指示読取 部 2 6 2に結線グループ番号 Cab, Cbcを出力して 読み取らせる。 学習指示読取部 2 6 2からの読取結 果を受けた学習フラグ設定部 2 6 3 は結線グループ 番号 Cab, Cbcに属する結線に設けられている学習 調整器 2 6 0のフラグ保存部 2 6 5に対しフラグォ ンを指令して学習フラグをセ ッ トする。
[0856] 繞いて S 2 5 5に進んで学習スケジューラ 1 6 2 a は学習実行指令を出して学習処理を開始させる。 この学習処理は学習信号格納都 1 6 4に準備されて いる制御入力 Xと制御入力 Xに対する望ましい制御 出力となる教師信号 dを読み出し、 制御入力をルー ル部プリ ワイ ヤニューロ 1 5 0に与え、 教師信号は 重み変更部 1 6 1及び学習収束判定部 1 6 3に与え る。 そして学習入力を受けたルール部プリ ワイヤ二 ユーロ 1 5 0からの制御出力 Yを重み変更部 1 6 1 及び学習収束判定部 1 6 3に取り込み、 重み変更部 1 6 1 にあってはバックプロバゲーショ ン法に従つ て重み値の変更を行い、 学習収束判定部 1 6 3 は教 師信号 dに対する制御出力 Yの誤差が規定値以下と なったとき、 フェーズ 1 の学習終了を判定する。
[0857] S 2 5 5の学習実行指令に基づく フェーズ 1 の学 習処理が終了すると、 S 2 5 6でフェーズカウ ンタ i を 1つイ ンク リ メ ン ト し、 S 2 5 7で学習フエ一 ズの終わりをチユ ックする。 第 1実施例の学習処理 にあっては、 フェーズ 2で終了することから再び S 2 5 2に戻って次のフェーズ 2の学習処理に入る。 ②フェーズ 2
[0858] フェーズ 2の学習処理にあっては、 まず S 2 5 2 でフェーズ ' グループ対応テーブル 2 5 8を参照し てニューロングループ番号 G b〜G f の 5つを読み 出す。 次に S 2 5 3でグループ · 結線対応テーブル 2 5 9を参照してニューロングループ G b〜G f に 対応する結線グループ番号 Cab〜 Ceiを読み出し、 ステ ップ S 2 5 4で結線グループ番号 Cab〜 Defを 出力して結線に設けられた学習フラグをセ ッ トする < 続いて学習信号を与えることでフューズ 2 の重み 学習をバックプロパゲーショ ン法により実行し、 こ れによりニューロ全体の重み学習が終了すると、 S 2 5 6でフェーズカウ ンタ i を 1つイ ンク リ メ ン ト し、 S 2 5 7で学習フェーズの終わりをチェ ック し て一連の処理を終了する。
[0859] 〔第一実施例の重み学習処理〕
[0860] 第 1 1 6図はルール部プリ ワイヤニューロに対し バックプロバゲーショ ン法により行う重み学習の処 理フロー図である。 この学習処理フローにおける各 部のバラメータは第 1 1 7図に示すように定められ る。
[0861] 第 1 1 7図は第 1 1 1図のルール部プリ ワイヤ二 ユーロの階層構造を概略的に示したもので、 図示の ように第 1層から第 6層までの 6層構造をもってお り、 第 1層及び第 3層がシグモイ ド関数ュニッ 卜で 構成され、 残りは線形関数ュニッ トで構成されてい る。 ただし、 入力層を除いている。 またバックプロ パゲーショ ン法による重みの学習対象となるのは第 1層から第 5層までであり、 最終段の重心計算実現 部 1 8 bの第 6層は重み学習の対象から除外される < ここでルール部プリ ワイヤニューロによるフア ジ ィルールの実現で出力されるフア ジィ推論値、 即ち 制御出力値を y 6 としており、 1 つのフェーズにお ける学習処理は第 6層から第 5層、 第 4層, 第 3層. 第 2層, 第 1層というように順次行う。 この階層毎 の学習の進行は i カウンタで示される。 即ち、 初期 状態で i カウンタは i == 6にセッ トされている。 更に説明を簡単にするため、 , i . , と A W , ι - ι はマ ト リ ックスを示し、 その大きさ ( i層目の ニューロ ン数) X ( i — 1層目のニューロン数) と なる。 更にまた、 i と y i はべク トルを示し、 大 きさは i 番目の層のニューロン数と同じになる。
[0862] この第 1 1 7図に示す各部のパラメ一夕を前提に 第 1 1 6図において学習法の第 1実施例による重み 学習処理を説明すると次のようになる。
[0863] 本学習法の第 1実施例にあってはフユ一ズ 1で前 件部メ ンバシップ関数実現部 1 6 に属する第 1層及 び第 2層の重みを学習し、 次の第 2 フヱーズでニュ 一口全体、 即ち第 1層〜第 5層の全ての重みを学習 する。
[0864] まずフューズ 1 の学習処理は、 S 2 7 1 で学習対 象層を設定するカウ ンタ i を i = 6 に初期設定する < この初期設定により第 6層目のュニッ トが学習対象 として指定される。
[0865] 次に S 2 7 2に進みシグモイ ド閼数ュニッ トか否 か判定し、 第 6層は線形閬数ュニッ トであることか ら S 2 8 4に進む。 S 2 8 4では最終段の階層か否 か判定し、 第 6層目は最終段であることから S 2 8 5に進み、 その時得られている教師信号 d と制御出 力 yを使用して前記 (Π)式と同様な式に従って差分値 δ 6 を求める。 ただし、 5は orに相当する。
[0866] 次に S 2 7 6に進んで重みを学習するュニッ トか 否か判定する。 この時、 第 6層は学習対象から除外 されているため、 具体的には結線に設けられた学習 調整器 2 6 0の学習フラグがオフとなっているため- S 2 7 8に進んで重み更新量厶 W 6 5 = 0 として S 2 7 9 に進み重み値 W 6 5の更新は行わない。 繞いて S 2 8 2 に進んでカウ ンタ i がフェーズ 1 の学習処理 最終層を示す E == 1 に達したか否か判定し、 この時 i = 6であることから S 2 8 3に進んでカウ ンタ i を 1つデク リ メ ン ト して i = 5 として S 2 7 2に戻 つて次の第 5層の学習に入る。
[0867] 第 5層についても線形閩数ュニッ トであることか ら S 2 7 2から S 2 8 4に進むが、 最終段の階層で ないことから S 2 8 6に進み、 前記 (13式と同様な式 に従って差分値 δ 5 を算出する。 次に S 2 7 6に進 んで学習対象となっているか否か判定し、 フェーズ 1 において第 5層は学習対象から除外されているた め、 S 2 7 8で重み更新量 Δ W54= 0 として S 2 7 9の重み値 W54の更新を無効とする。 以下同様に第 5層の最終ュニッ トまで処理を繰り返し、 第 5層の 処理が終了すると第 4層に進む。
[0868] 第 4層も線形関数ュニッ トであり、 且つフヱーズ 1では学習対象から除外されているため第 5層と同 じ処理を操り返す。 更に第 3層の処理に進むと第 3 層はシグモイ ド閬数ュニッ トであることから S 2 7 2から S 2 7 3に進み、 最終段ではないことから S 2 7 5でシグモイ ド関数ユニッ ト固有の差分値 δ 3 を前記 (7)式と同様の式に従って求める。 第 3層も学 習対象となっていないことから S 2 7 6から S 2 7 8に進んで重み値更新量厶 W 32= 0 として S 2 7 9 の重み値 W32の更新を無効化する。
[0869] 第 3層の処理が終了すると第 2層の処理に進み、 第 2層は線形関数ュニッ トであることから S 2 7 2 から S 2 8 4を経由して S 2 8 6で差分値 52 を求 め、 第 2層は前件部メ ンバシッブ関数実現部 1 6に 属してフヱーズ 1 の学習対象となつていることから S 2 7 6から S 2 7 7に進んで前記 (6), (8)式と同様 な式に従って重み値更新量 AW21を算出し、 S 2 7 9で前記(8a)式と同様な式に従って重み値 W21を更 新する。 以下同様に第 2層の最終ュニッ トまで処理 を繰り返し第 1層の処理に移る。
[0870] 第 1層はシグモイ ド関数ュニッ トで且つ最終段階 層でないことから S 2 7 2より S 2 7 3を経由して S 2 7 5に進み、 差分値 (5 , を算出した後、 S 2 7 6から S 2 7 7に進んで重み値更新量 AWi。を求め、 S 2 7 9で重み値 W10を更新する。 以下、 第 1層目 の最終ュニッ ト迄同様の処理で繰り返し、 第 1層目 の最終ュニッ トの処理を終了すると S 2 8 2に進み、 この時 i カウ ンタはフェーズ 1 の最終階層 E = 1 に 一致していることから、 フヱーズ 1 の学習処理の終 了を判定して一連の処理を終了する。
[0871] 次にニューロ全体の重みを学習するフェーズ 2に あっては、 第 6層の処理は差分値 6 を算出するだ けで重み値 W65の吏新は行われないが、 第 5層の処 理に進むと重み値厶 W54の算出が有効に行われて重 み値 W54の更新が行われる。 以下同様に残りの第 4 層、 第 3層、 第 2層、 第 1層の順番に順次重みの学 習処理を実行し、 第 1層目の最終ュニッ トの処理と 終了を判別すると一連の学習処理を終了する。
[0872] 〔第 2実施例の学習処理〕 第 2実施例の重み学習は第 1 0 1図のステップ S 1 9 3に示すように
[0873] ① ルール部 1 7
[0874] ② ニューロ全体
[0875] として行う、 この重み学習の順番に対応してステツ プ S 1 8 9に示すように、 ルール部 1 7 に対する重 み値の初期設定は、 予め持っている知識の導入に基 づいた重み値の初期設定または乱数を用いたラ ンダ ムな重み値の初期設定、 更には両者を併用した重み 値の初期設定を行う。 これに対し 2面目以降のフユ ーズ 2で重み学習を行う前件部メ ンバシッブ関数実 現部 1 6及び後件部メ ンバシ ップ関数実現 ♦ 非ファ ジィ化部 1 8については、 ステップ S 1 8 8 、 S 1 9 0に示すように予め持っている知識を導入した重 み値の初期設定のみを行っている。
[0876] また、 ステップ S 1 9 2のフェーズ ' グループ対 応表の設定は、 第 1 1 2図 (b)に示すようにフューズ 1でルール部 1 7に属するニューロングループ番号 G d , G eを設定し、 フェーズ 2でニューロ全体の グループ番号 G b 〜 G f の 5つを設定している。
[0877] この第 2実施例の重み学習にあっては、 ルール部 1 7の重みを学習した後にルール部プリ ワイヤニュ 一口全体を学習させることにより、 ルール部の重み 学習の結果に合わせたルール部プリ ワイヤニューロ 全体の重みの再調整を行う ことができる。
[0878] 〔第 3実施例の学習処理〕
[0879] 第 3実施例では第 1 0 2図のステップ S 1 9 9に 示すように、
[0880] ① ルール部 1 Ί
[0881] ② 前件部メ ンバシップ関数実現部 1 6
[0882] ③ ニューロ全体
[0883] となる順番で重みを学習する。 この重みの学習の順 番に対応して最初に重みを学習するルール部 1 7 に ついては、 ステップ S 1 9 5に示すように予め持つ ている知識の II入に基づいた重み値の初期設定また は乱数を用いたランダムな重み値の初期設定更には 両者を併用した重み値の初期設定を行う。 これに対 し 2回目以降に重みを学習する前件部メ ンバシッブ 関数実現部 1 6及び後件部メ ンバシップ関数実現 - 非ファ ジィ化部 1 8 については、 ステップ S 1 9 4 : S 1 9 6に示すように、 予め持っている知識の導入 に基づいた重み値の初期設定のみを行う。
[0884] また、 ステップ S 1 9 8 のフェーズ ' グループ対 応表の設定は、 第 1 1 2図 (c)に示すようにフェーズ 1 でルール部 1 Ί に属するニューロ ングループ番号 G d , G eを設定し、 フューズ 2で前件部メ ンバシ ップ閼数実現部 1 6 に属するニューロ ングループ番 号 G b , G cを設定し、 更にフヱーズ 3でニューロ 全体としてのグループ番号 G b〜 G f の 5つの設定 を 亍っ。
[0885] こ の第 3実施例によれば、 ルール部 1 7 と前件部 メ ンバシ ップ関数実現部 1 6の重みを学習した後に ルール部プリ ワイャニューロ全体を学習させること により、 ルール部 1 7及び前件部メ ンバシ ツプ関数 実現部 1 6 の重みの学習結果に合わせたルール部ブ リ ワイャニューロ全体の重みの再調整を行う ことが できる。
[0886] 〔第 4実施例の学習処理〕 第 4実施例にあっては、 第 1 0 3図のステップ S 2 0 6に示すように、
[0887] ① 前件部メ ンバシ ッブ関数実現部 1 6
[0888] ② ルール部 1 7
[0889] ③ ニューロ全体
[0890] となる順番で重みを学習する。 この重み学習の順番 に対応して、 最初に重みを学習する前件部メ ンバシ ップ関数実現部 1 6 については、 ステップ S 2 0 1 に示すように予め持っている知識の導入に基づいた 重み値の初期設定または乱数を用いたランダムな重 み値の初期設定、 更には両者を併用した重み値の初 期設定を行う。 これに対し 2回目以降に重みを学習 するルール部 1 7及び後件部メ ンバシ ップ関数実現 ' 非フア ジィ化部 1 8についてはステップ S 2 0 2 S 2 0 3に示すように、 予め持っている知識の導入 に基づいた重み値の初期設定のみを行う。
[0891] また、 ステップ S 2 0 5のフェーズ · グループ対 応表の設定は第 1 1 2図 (d)に示すようにフューズ 1 で前件部メ ンバシップ関数実現部 1 6に属するニュ 一ロングループ番号 G b , G cを設定、 フヱーズ 2 でルール部 1 7 に属するニューロ ングループ番号 G d , G eを設定し、 更にフェーズ 3でニューロ全体 としてのニューロ ングループ番号 G b〜G f の 5つ を設定している。
[0892] この第 4実施例によれば、 前件部メ ンバシップ関 数実現部 1 6 とルール部 1 7 の重みを学習した後に ルール部プリ ヮィャニューロ全体を学習させること により、 前件部メ ンバシップ関数実現部 1 6 とル一 ル部 1 7 の重みの学習結果に合わせたルール部プリ ヮィャニューロ全体の重みの再調整を行う ことがで きる。
[0893] 〔第 5実施例の学習処理〕 第 5実施例にあつては、 第 1 0 4図のステップ S 2 1 3に示すように、
[0894] ① 前件部メ ンバシップ関数実現部 1 6 とルール部 1 7
[0895] ②ニューロ全体
[0896] となる頫番で重みを学習する。 この学習の順番に対 応して最初に前件部メ ンバシッブ閧数実現部 1 6 と ルール部 1 7の重みを同時に調整することから、 ス テツプ S 2 0 8 , S 2 0 9に示すように前件部メ ン バシッブ関数実現部 1 6 とルール部 1 7 については 予め持っている知識の導入に基づいた重み値の初期 設定または乱数を用いたランダムな重み値の初期設 定、 更には両者を併用した重み値の初期設定を行う , これに対し 2回目の重み学習となる後件部メ ンバシ ップ関数実現 · 非フア ジィ化部 1 8については、 S 2 1 0に示すように、 予め持っている知識の導入に 基づいた重み値の初期設定のみを行う。
[0897] また、 ステップ S 2 1 2 のフェーズ · グループ対 応表の設定は第 1 1 2図 (e)に示すように、 フユ一ズ 1 で前件部メ ンバシ ップ関数実現部 1 6及びルール 部 1 7 に属するニューロ ングループ番号 G b , G c G d , G e の 4つを設定し、 フェーズ 2 でニューロ 全体としてのニューロングループ番号 G b〜 G f の 5つを設定する。
[0898] この第 5実施例によれば、 前件部メ ンバシップ閬 数実現部 1 6 とルール部 1 7 の重みを同時に学習し た後、 ルール部プリ ワイヤニューロ全体を学習させ ることにより、 前件部メ ンバシ 'ンプ関数実現部 1 6 とルール部 1 7 の重みの同時学習による結果に合わ せたルール部プリ ワイャニューロ全体の重みの再調 整を行う ことができる。
[0899] 〔第 6実施例の学習処理〕 第 6実施例にあっては、 第 1 0 5図のステップ S 2 2 0に示すように、
[0900] ① 前件部メ ンバシッブ関数実現部 1 6
[0901] ② 後件部メ ンバシッブ閬数実現 · 非フア ジィ化部 1 8
[0902] ③ニューロ全体
[0903] となる順番で重みを学習する。 この学習の順番に対 応して最初に重みを学習する前件部メ ンバシップ関 数実現部 1 6 については、 ステップ S 2 1 5 に示す ように予め持っている知識の導入に基づく重み値の 初斯設定または乱数を用いたランダムな重み値の初 期設定、 更には両者を併用した重み値の初期設定を 行う。 これに対し 2面目以降の重み学習となるルー ル部 1 7及び後件部メ ンバシップ閬数実現 · 非ファ ジィ化部 1 8 については、 ステップ S 2 1 6、 S 2 1 7 に示すように予め持っている知識の導入に基づ いた重み値の初期設定のみを行う。
[0904] また、 ステップ S 2 1 9のフェーズ ' グループ対 応表の設定は第 1 1 2図 (f)に示すように、 フェーズ 1で前件部メ ンバシップ関数実現部 1 6に属する二 ユーロングループ番号 G b , G cを設定し、 フエ一 ズ 2で後件部メ ンバシップ閬数実現 · 非フア ジィ化 部 1 8に属するニューロングループ番号 G f を設定 し、 更にフェーズ 3でニューロ全体としてのニュー 口ングループ番号 G b〜 G f の 5つを設定する。 このような第 6実施例によれば、 前件部メ ンバシ ップ関数実現部 1 6 と後件部メ ンバシップ関数実現 • 非ファ ジィ化部 1 8の重みを順次学習した後、 ル ール部プリ ヮィ ャニューロ全体を学習させることに より、 前件部メ ンバシップ閩数実現部 1 6 と後件部 メ ンバシップ閬数実現 · 非フアジィ化部 1 8の重み の学習結果に合わせたルール部プリ ワイ ヤニューロ 全体の重みの再調整を行う ことができる。
[0905] 〔第 7実施例の学習処理〕 第 Ί実施例にあっては、 第 1 0 6図のステップ S 2 2 6に示すように、
[0906] ① ルール部 1 7
[0907] ② 後件部メ ンバシップ関数実現 · 非フアジィ化部 1 8
[0908] ③ ニューロ全体
[0909] となる順番で重みを学習する。 この学習の順番に対 応して重みを最初に学習するルール部 1 7 について は、 ステップ S 2 2 2に示すように予め持っている 知識の導入に基づいた重み値の初期設定または乱数 を用いたランダムな重み値の初期設定、 更には両者 を併用した重み値の初期設定を行う。 これに対し 2 回目以降の重み学習となる前件部メ ンバシップ閬数 実現部 1 6及び後件部メ ンバシップ関数実現 ♦ 非フ ア ジィ化部 1 8 については、 ステップ S 2 2 1 , S 2 2 3に示すように予め持っている知識の導入に基 づいた重み値の初期設定のみを行う。
[0910] また、 ステップ S 2 2 5 のフェーズ ' グループ対 応表の設定は第 1 1 2図^に示すように、 フューズ 1でルール部 1 7に属するニューロ ングループ番号 G d , G eを設定し、 フヱーズ 2で後件部メ ンバシ ップ関数実現 · 非フア ジィ化部 1 8に属するニュー 口ングループ番号 G f を設定し、 更にフヱーズ 3で ニューロ全体としてのニューロ ングループ番号 G b 〜 G ί の 5つを設定する。
[0911] このような第 7実旌例によれば、 ルール部 1 7 と 後件部メ ンバシッブ閬数実現 · 非フア ジィ化部 1 8 の重みを順次学習させた後、 ルール部プリ ワイ ヤ二 ユーロ全体を学習させることにより、 ルール部 1 7 と後件部メ ンバシップ関数実現 · 非フア ジィ化部 1 8の重み学習の結果に合わせたルール部プリ ワイヤ ニューロ全体の重みの再調整を行う ことができる。
[0912] 〔第 8実施例の学習処理〕 第 8実施例にあつては、 第 1 0 7図のステップ S 2 3 3に示すように、
[0913] ① ルール部 1 7
[0914] ② 前件部メ ンバシップ閬数実現部 1 6
[0915] ③ 後件部メ ンバシップ閼数実現 · 非フア ジィ化部 1 8
[0916] ④ニューロ全体
[0917] となる頓番で重みを学習する。 この学習の順番に対 応して最初に重みを学習するルール部 1 7 について は、 ステップ S 2 2 9に示すように、 予め持ってい る知識の導入に基づいた重み値の初期設定または乱 数を用いたランダムな重み値の初期設定、 更には両 者を併用した重み値の初期設定を行う。 これに対し 2回目以降に重みを学習する前件部メ ンバシ ップ関 数実現部 1 6及び後件部メ ンバシップ関数実現 · 非 フア ジィ化部 1 8 についてはステ ップ S 2 2 8 , S 2 3 0 に示すように、 予め持っている知識の導入に 基づいた重み値の初期設定を行う。
[0918] また、 ステップ S 2 3 2 のフューズ · グループ対 応表の設定は第 1 1 2図 (h)に示すように、 フェーズ 1 でルール部 1 7に属するニューロ ングループ番号
[0919] G d , G eを設定し、 フヱーズ 2で前件部メ ンバシ ップ関数実現部 1 6に属するニューロ ングループ番 号 G b, G cを設定、 フ ーズ 3で後件部メ ンバシ ップ関数実現 · 非ファ ジィ化部 1 8に属するニュー 口 ングループ番号 G f を設定し、 最後のフヱーズ 4 でニューロ全体としてのニューロングループ番号 G b〜G ί の 5つを設定する。
[0920] この第 8実施例によれば、 ルール部 1 7、 前件部 メ ンバシップ関数実現部 1 6及び後件部メ ンバシッ ブ関数実現 · 非フア ジィ化部 1 8の順番に重みの学 習を行った後、 ルール部プリ ワイヤニューロ全体の 重みを学習させることにより、 前件部メ ンバシップ 関数実現部 1 6 、 ルール部 1 7及び後件部メ ンバシ ップ関数実現 · 非ファジィ化部 1 8の重みの学習結 果に合わせたルール部プリ ワイヤニューロ全体の重 みの再調整を行う ことができる。
[0921] 〔第 9実施例の学習処理〕 第 9実施例にあっては、 第 1 0 8図のステップ S 2 4 0に示すように、
[0922] ① 前件部メ ンバシ ップ関数実現部 1 6
[0923] ② ルール部 1 Ί
[0924] ③ 後件部メ ンバシップ閬数実現 , 非フア ジィ化部 1 8
[0925] ④ ニューロ全体
[0926] となる頫番で重みを学習する。 この学習順番に対応 して最初に重みを学習する前件部メ ンバシッブ関数 実現部 1 6 にっていは、 ステップ S 2 3 5に示すよ うに、 予め持っている知識の導入に基づいた重み値 の初期設定または乱数を用いたラ ンダムな重み値の 初期設定、 更には両者を併用した重み値の初期設定 を行う。 これに対し 2回目以降の重み学習となるル —ル部 1 7及び後件部メ ンバシ ッブ閬数実現 · 非フ ア ジィ化部 1 8 については、 ステップ S 2 3 6、 S 2 3 7 に示すように、 予め持っている知識の導入に 基づいた重み値の初期設定のみを行う。
[0927] また、 ステップ S 2 3 9 のフェーズ · グループ対 応表の設定は第 1 1 2図 (i)に示すように、 フューズ 1 1で前件部メ ンバシップ閩数実現部 1 6に属する二 ユーロングループ番号 G b , G cを設定し、 フヱー ズ 2でルール部 1 Ί に属するニューロングルーブ番 号 G d , G eを設定し、 フヱーズ 3 で後件部メ ンバ
[0928] 5 シップ関数実現 · 非フアジィ化部 1 8に属するニュ 一口 ングループ番号 G f を設定し、 更に最後のフエ ーズ 4 でニューロ全体となるニューロ ングループ番 号 G b〜 G f の 5つを設定する。
[0929] このような第 9実施例にあっては、 前件部メ ンバ
[0930] 10 シ ップ関数実現部 1 6 、 ルール部 1 7及び後件部メ ンバシップ閬数実現 · 非フア ジィ化部 1 8の重みを 順次学習した後、 ルール部プリ ワイヤニューロ全体 の重みを学習させることにより、 前件部メ ンバシッ ブ関数実現部 1 6、 ルール部 1 7及び後件部メ ンバ
[0931] 15 シ ッブ関数実現 · 非フアジィ化部 1 8の重みの学習 結果に合わせたルール部プリ ワイヤニューロ全体の 重みの再調整を行う ことができる。
[0932] 〔第 1 0実施例の学習処理〕
[0933] 第 1 0実施例にあっては、 第 1 0 9図のステツ ッ
[0934] 20 プ S 2 4 6に示すように、
[0935] ①前件部メ ンバシ ッブ関数実現部 1 6 とルール部 1
[0936] ②後件部メ ンバシ ッ プ関数実現, 非フア ジィ化部 1 8
[0937] 25 ③ニューロ全体 となる順番で重みを学習する。 この順番に対応して 最初に重みを学習する前件部メ ンバシップ関数実現 部 1 6 とルール部 1 7 については、 ステップ S 2 4 1 、 S 2 4 2に示すように、 予め持っている知識の 導入に基づいた重み値の初期設定又は乱数を用いた ラ ンダムな重み値の初期設定、 更には両者を併用し た重み値の初期設定を行う。 これに対し 2回目以降 の重み学習となる後件部メ ンバシ ッブ関数実現 . 非 フア ジィ化部 1 8 については、 ステップ S 2 4 3 に 示すように予め持っている知識の導入に基づいた重 み値の初期設定のみを行う。
[0938] また、 ステップ S 2 4 5 のフェーズ · グループ対 応表の設定は第 1 1 2図 ( j ) に示すように、 フェ —ズ 1で前件部メ ンバシッブ関数実現部 1 6及びル ール部 1 7に属するニューロングループ番号 G b , G c , G d , G eの 4つを設定し、 フューズ 2で後 件部メ ンバシップ鬨数実現 · 非ファ ジィ化部 1 8 に 属するニューロ ングループ番号 G f を設定し、 最後 のフヱーズ 3でニューロ全体に対応したニューロン グループ番号 G b 〜 G ί の 5つを設定する。
[0939] このような第 1 0実施例にあっては、 前件部メ ン バシッブ関数実現部 1 6 とルール部 1 7 の重みを同 時に学習し、 その後に後件部メ ンバシップ関数実現 - 非フア ジィ化部 1 8の重みを学習してから最終的 にルール部プリ ワイヤニューロ全体の重みを学習さ せることにより、 前件部メ ンバシップ関数実現部 1 6、 ルール部 1 7及び後件部メ ンバシップ関数実現 • 非ファ ジィ化部 1 8の重みの学習結果に合わせた ルール部プリ ワイヤニューロ全体の重みの再調整を 行う ことができる。
[0940] 次にフア ジィモデルからルール部プリ ワイヤニュ 一口、 又はルール部全結合ニューロ等への変換の他 の実施例について説明する。 これらの変換を、 ある データ処理システムの持つデータ処理機能をプリ ヮ ィャニューロ、 全結合ニューロ、 及び純ニューロ上 に構築する シュ ミ レーショ ンと して説明する。
[0941] このシュ ミ レーショ ンは、 第 1 1 8図に示すよう な入出力信号関係を持つデータ処理機能を階層ネッ トワーク部 1 5 9に構築することで行った。 ここで、 第 1 1 8図中、 横軸 Xが入力信号、 縦軸 yが出力信 号を表している。 この入出力信号関係から、 入力信 号 Xについては、 第 1 1 9図 ( a ) に示す 「 small ① j と、 第 1 1 9図 ( b ) に示す 「big ①」 という メ ンバーシップ関数、 出力信号については、 第 1 1 9図 ( c ) に示す 「 small ②」 と、 第 1 1 9図 ( d ) に示す 「big ②」 というメ ンバーシッブ関数を定義 して、 これらのメ ンバーシップ関数の結合関係を規 定する 2つのルールとして、
[0942] L 1 : if X is big ① then y is small②
[0943] L 2 : if x is smll① then y is big ② により表されるフア ジィ モデル 1 0が生成できるこ とになる。
[0944] 第 1 2 0図に、 この生成したフア ジィ モデル 1 0 の入出力信号関係を図示する。 ここで、 フア ジィ推 論値である出力信号 yは、 上述の(21)式と同様の式 に従って決定されるものとした。 この第 1 2 0図か ら分かるように、 生成したフア ジィモデル 1 0 は、 ラフではあるが、 第 1 1 8図に示すデータ処理機能 の入出力信号関係を近似するものとなっている。
[0945] 第 1 2 1図に、 この第 1 2 0図のフアジィモデル 1 0から構築される階層ネッ トワーク部 1 5 9 の一 例を図示する。 ここで、 この階層ネッ トワーク部 1 5 9 は、 ルール部プリ ワイヤニューロ 1 2に相当す るものである。
[0946] 図中、 「 2 」 の基本ユニッ ト 1 には、 重み値" 12" と閻値 " -5.4" が割り付けられることで、 第 1 1 9 図 ( b ) の 「bi g ①」 というメ ンバーシップ関数の グレード値を算出する構成が探られ、 「 3 」 の基本 ユニッ ト 1 には、 重み値 " -12 " と閽値" 6.6" が割 り付けられることで、 第 1 1 9図 ( a ) の 「 sma l l ①」 というメ ンバーシッブ¾数のグレード値を算出 する構成が採られる 2つのルールに対応して備えら れる 「 4 」 と 「 5 」 の基本ュニッ ト 1 には、 重み値 " 5 " と閽値"- 2.5"が割り付けられるこ とで、 入力 値の総和と閾値との関係がほぼ線型になる構成が採 られる。 そして、 第 1 1 9図 ( d ) の 「 big ②」 と いうメ ンバーシップ関数に対応して備えられる 「 6 」 のュニッ トと、 第 1 1 9図 ( c ) の 「 s mall②」 と いうメ ンバーシッブ関数に対応して備えられる 「 7 j のュニツ 卜とは、 入力値をそのまま出力するよう動 作する線型素子が用いられ、 この 「 6 」 のュニッ ト と 「 5 」 の基本ユニッ ト 1 との間の内部結合と、 こ の 「 7 」 のュニッ ト 「 4 」 の基本ュニ ッ ト 1 との間 の内部結合の重み値としては " 1 " が設定される。 また、 「 8 j で示される重心決定のモジュールと
[0947] 「 6 」 及び 「 7 」 のュニッ ト との間の内部結合の重 み値も " 1 " が設定される。
[0948] 第 1 2 2図に、 この構築された第 1 2 1図の階層 ネッ トワーク部 1 5 9の入出力信号関係を図示する。 この図から分かるように、 第 1 2 1図に構築した階 層ネ ッ トワーク部 1 5 9、 即ちルール部プリ ワイヤ ニューロは、 何ら学習を行わなくても、 第 1 1 8図 の入出力信号関係にかなり近似する入出力信号関係 を与えるデータ処理機能を発揮することができるの である。 このデータ処理機能は、 これに続いて、 重 み値及び闥値の学習を実行すれば更に精度の高いも のになる。
[0949] 第 1 2 3図 ( a ) に、 第 1 2 0図のフア ジィモデ ル 1 0から構築される階層ネ ッ トワーク部 1 5 9の 他の一例を図示する。 ここで、 この階層ネッ トヮー ク部 1 5 9 は、 ルール部全結合ニューロ 1 3に相当 するものである。
[0950] 図中、 「 2 」 の基本ュニッ ト 1 には、 重み値" 12" と閻値 "- 5.4" が割り付けられることで、 第 1 1 9 図 ( b ) の 「 big ①」 というメ ンバーシップ関数の グレード値を算出する構成が採られ、 「 3 」 の基本 ュニッ ト 1 には、 重み値" -12 "と閾値" 6.6" が割り 付けられることで、 第 1 1 9図 ( a ) の 「 small ①」 というメ ンバーシップ関数のグレード値を算出する 構成が採られる。 そして第 1 1 9図 ( c ) の 「 small ②」 というメ ンバーシップ関数に対応して備えられ る 「 4 」 の基本ュニッ ト 1 と、 「 2 」 及び 「 3 j の 基本ュニッ ト 1 との間は相互に内部結合する構成が 採られ、 第 1 1 9図 ( d ) の 「big ②」 というメ ン バーシップ関数に対応して備えられる 「 5 」 のュニ ッ ト と、 「 2 」 及び Γ 3 」 の基本ュニッ ト 1 との間 は相互に内部結合する構成が採られる。 この 「 4 」 及び 「 5 」 の基本ュニッ ト 1 の閻値及び入力に係わ る重み値は学習により求められるため、 初期値とし て乱数値が設定されることになり、 「 6 」 で示され る重心決定のモジュールと 「 4 」 及び 「 5 」 のュニ ッ トとの間の内部結合の重み値には " 1 " が設定さ れる。
[0951] この 「 4 」 及び 「 5 」 の基本ュニッ ト 1 の閽値及 び入力に係わる重み値は、 生成したフアジィモデル 1 oから作成される入出力信号関係を学習信号とし て用いて実行される。 第 1 2 4、 1 2 5図に、 生成 したフア ジィ モデル 1 0である上述の
[0952] L 1 : if X is big① then y is small②
[0953] L 2 : if x is small① then y is big②
[0954] から作成される学習信号を図示する。 こ こで、 学習 教師信号は、 「small ②」 及び 「big ②」 へのグレ ー ド値として求めてある。 第 1 2 3図 ( b ) に、 こ の学習信号を用いて学習した第 1 2 3図 ( a ) の階 層ネ ッ ト ワーク部 1 5 9の 「 4 」 及び 「 5 」 の基本 ュニッ ト 1 の閽値及び入力に係る重み値の学習値と- 学習により更新された 「 2 」 及び 「 3 」 の基本ュニ ッ ト 1 の閽値及び入力に係る重み値を図示する。 第 1 2 6図に、 この学習により構築された第 1 2 3図 ( b ) の階層ネ ッ ト ワーク部 1 5 9、 即ちルー ル部全結合ニューロの入出力信号関係を図示する。 この図から分かるように、 第 1 2 3図 ( b ) に構築 した階層ネッ トワーク部 1 5 9 は、 第 1 1 8図の入 出力信号関係にかなり近似する入出力信号関係を与 えるデータ処理機能を発揮することができるのであ る。 そして、 「 2 」 及び 「 3 」 の基本ュニッ ト 1 の 新たな闥値及び入力に係る重み値に従って、 より適 切な 「small ①」 及び 「big ①」 のメ ンバーシップ 関数が求められることになる。 第 1 2 7図に、 この 学習後の 「saall ①」 のメ ンバシップ関数を図示す る。
[0955] 更に、 第 1 1 8図に示す入出力信号関係を持つデ 一夕処理機能を実行する適応型データ処理装置 1 1 即ち純ニューロ二ついても、 シュ ミ レーシヨ ンを行 つた。 このシュ ミ レーシヨ ンは、 完全結合する階層 ネッ トワーク構造として 1 0個の基本ュニッ ト 1か らなる 1段構成の中間層を持つものを想定した。 第 1 2 8図にこの適応型データ処理装置 1 1 の内部結 合の重み値及び閽値の学習のために用いた学習信号 を図示する。 この学習信号は、 第 1 1 8図の入出力 信号関係に基づいて作成したが、 生成した上述のフ ア ジィモデル 1 0から作成することも可能である。 第 1 2 9図に、 この学習信号を用いて学習した適 応型データ処理装置 1 1 の各基本ュニッ ト 1 の闥値 及び入力に係る重み値の学習値を図示すると共に、 第 1 3 0図に、 この学習により構築された第 1 2 9 図の適応型データ処理装置 1 1 の入出力信号関係を 図示する。 ここで、 第 1 2 9図中、 各基本ュニッ ト 1 に対応付けて記述される値が閽値であり、 各内部 結合に対応付けて記述される値が重み値である。 こ の第 1 3 0図から分かるように、 第 1 2 9図に構築 した適応型データ処理装置 1 1 は、 第 1 1 8図の入 出力信号閬係にかなり近似する入出力信号関係を与 えるデータ処理機能を発揮することができるのであ る。 1 次にフアジィ制御ルールの生成のシュ ミ レーショ ンについて説明する。 このシュ ミ レーシヨ ンは、 第 1 3 1図に示すように前件部メ ンバシッブ関数のグ レード値を出力するュニッ トを 2偭、 即ち 2 1 a ,
[0956] 5 2 1 b , ルール部のシグモイ ド関数ュニッ トを 2個-
[0957] 2 3 a , 2 3 b として行った。 なお第 1 3 1図では 前件部メ ンバシッブ関数実現部の出力ュニッ ト 2 2 a 〜 2 2 dは省略され、 又各ュニッ トはプロ ック と して示されている。
[0958] 10 第 1 3 2図 ( a ) に、 処理ユニッ ト 2 1 a に割り 付けられる前件部メ ンバーシッブ関数、 第 1 3 2図 ( ) に、 処理ュニッ ト 2 1 bに割り付けられる前 件部メ ンバーシップ関数、 第 1 3 2図 ( c ) に、 処 理ユニッ ト 2 4 aの出力に対応付けられる後件部メ
[0959] 15 ンバーシ ップ関数、 第 1 3 2図 ( d ) に、 処理ュニ ッ ト 2 4 bの出力に対応付けられるメ ンバーシップ 関数を図示する。 ここで、 処理ユニッ ト 2 3 a , 2
[0960] 3 bには、
[0961] 例えば入力値の平均値を算出して出力するファ ジィ 20 演箕機能を割り付け、 処理ユニッ ト 2 4 a , 2 4 b には、 入力値の加算値を箕出して出力するフア ジィ 演箕機能を割り付けるものとした。
[0962] 制御対象から、 第 1 3 3図に示す制御データが入 手されたものとして重み値の学習を行った。 第 1 3 25 1図中に示す数値が学習結果の重み値である。 図中 の太い線の内部結合が大きな値を持っていることが 明らかとなる。 これから、
[0963] if X is B I G then Z is S MAL L if X is S MA L L then Z is B I G というフア ジィ制櫛ルールを抽出できることになる < 続いてファジィ制御ルールのメ ンバシ ップ関数、 及びルールそのものの重みづけのチューニングの実 施例について説明する。 即ちフアジィ モデルから変 換されたルール部プリ ワイヤニューロに対して制御 対象から得られたデータを学習させることによって, 前件部メ ンバシ ップ関数、 又はルールそのものの重 みづけをチューニングするシユ ミ レーショ ンを行つ た。 第 1 3 4図はこのシュ ミ レーショ ンに使われた フ ア ジ ィ制御ルールを示す。
[0964] これらのフアジィ制御ルールの前件部を記述する 制御状態量として、 第 1 3 5図に示す 「TU 1 , A L K, TEMP, T U S E, T UU P, F L O C, S TAT」 という 7種類の制御状態があり、 後件部 を記述する制御操作量として第 1 3 5図に示す 「D D 0 S」 という 1種類の制御操作量があることを想 定した。
[0965] 第 1 3 4図のフアジィ制御ルールの前件部記述に 示すように、 「T U 1」 については、 「 S A (小さ い) 」 と 「MM (普通) 」 と 「 LA (大きい) 」 と 「 S T (〜より小さい) 」 というメ ンバーシ ッブ関 数が使用され、 「A L K」 については、 「 S A (小 さい) 」 と 「 L A (大きい) 」 というメ ンバーシッ ブ関数が使用され、 「T EMP」 については、 「 I S (小さ く ない) 」 と 「 S A (小さい) 」 というメ ンバーシップ関数が使用され、 「T U S E」 につい ては、 「 L A (大きい) 」 と 「 I L (大き くない) 」 というメ ンバーシッブ関数が使用され、 「 T U U P」 については、 「MM (普通) 」 と 「M L (少し大き い) 」 と 「 L A (大きい) 」 という メ ンバ一シップ 関数が使用され、 「 F L 0 C」 については 「 S A (小さい) 」 というメ ンバ一シ ップ関数が使用され、 「 S TAT」 については、 「 L A (大きい) 」 とい ぅメ ンバーシップ閬数が使用されることを想定して いる。
[0966] このシュ ミ レーショ ンでは、 処理ュニ ッ ト 2 1 ( 2 1 a , · · ♦ ) は、 上述で説明した (但し、 閽 値の符号の定義に相違がある) ように、 基本ュニッ ト 1 を使用して、
[0967] 1
[0968] y =
[0969] 1 + e 〔一 ( ω X -h & ) 〕
[0970] 若しく は、 y =
[0971] 1 + e x p 〔一 ( ω ,x+ θ ι ) }
[0972] 1 + e x p 〔一 ( ω 2x十 θ 2 ) ) の演算処理従って前件部メ ンバーシップ関数、 たと えば制御状態量のメ ンバーシップ関数を実現する構 成を採った。 第 1 3 6 , 1 3 7図中の 「前」 の欄に、 これらの制御状態量のメ ンバ一シップ関数の関数形 状を規定する重み値 , ω 2 (入力ユニッ ト 1 2 と の間を内部結合の重み値) と閾値 の値を図示 する。
[0973] また、 第 1 3 4図のフア ジィ制御ルールの後件部 記述に示すように、 「 D D O S」 については、 「 P M (正で中位) 」 と 「 NM (負で中位) 」 と 「 P B (正で大き く ) 」 と 「 P S (正で小さ く ) 」 という メ ンバーシップ閬数が使用されることを想定してい る。 第 1 3 8図に、 これらのメ ンバ一シップ関数の 関数形状の定義を示すと共に、 第 1 3 9図に、 これ らのメ ンバーシップ関数がもつこの関数形状のパラ メ ータ P i (i =1,2,3)の設定値を図示する。
[0974] 第 1 4 0図に、 ルール部プリ ワイヤニューロ 1 2 に写像された第 1 3 4図のフア ジィ制御ルールを図 示する。 尚、 図中、 入力ユニッ ト 2 0 ( 2 0 a, · · · ) については省略してある。 この図に示すよう に、 処理ユニッ ト 2 1 ( 2 1 a , · · · ) は、 制御 状態量のメ ンバーシッブ関数の数に合わせて 1 5ュ ニッ ト用意され、 処理ュニッ ト 2 3 ( 2 3 a , · · ♦ ) はフア ジィ制御ルールの数に合わせて 1 0ュニ ッ ト用意され、 処理ュニッ ト 2 4 ( 2 4 a , · · · ) は、 制御操作量のメ ンバーシップ関数の数に合わせ て 4 ュニッ ト用意されることになる。 ここで、 処理 ユニッ ト 2 3には、 例えば入力値の平均値を算出す るファ ジィ演算機能を割り付け、 処理ュニッ ト 2 4 には、 入力値の加算値を算出するフア ジィ演算機能 を割り付けた。
[0975] このシュ ミ レーショ ンでは、 制御対象から第 1 4 1図に示す 30個の制御データが入手されたものとし て、 学習定数 ε の値を 0.5 、 モーメ ンタム ζの値を 0.4 に設定して重み値の学習を行った。
[0976] シュ ミ レーシヨ ンにより学習された入力ュニッ ト 2 0 と処理ュニッ ト 2 1 との間の内部結合の重み値 6^ , 6) 2 と 0 し 0の値を、 第 1 3 6 , 1 3 7図中の 「後」 の欄に示す。 即ち、 第 1 3 6 > 1 3 7図中の 「前」 の欄に記載される値により規定されるメ ンバ 一シップ関数が、 制御対象の制御データを用いる学 習処理により、 この 「後」 の欄に記載される値によ り規定れるメ ンバーシップ関数にチューニングされ ることになるのである。 第 1 4 2図に、 このチュー ユングされたメ ンバーシップ関数の関数形状の変化 の一例を図示する。 こ こで、 図中、 破線はチュー二 ング前のメ ンバーシップ関数の関数形状を示すもの であり実線はチューニング後のメ ンバーシップ関数 の関数形状を示すものである。 第 1 4 2図 ( a ) は 「 T E M P (水温) の I S (小さ く ない) 」 という メ ンバーシッブ関数のチュー二ング前と後の関数変 化、 第 1 4 2図 ( b ) は、 「 F L 0 C (フロ ック形 成状態) の S A (小さい) 」 というメ ンバーシップ 閬数のチューニング前と後の関数変化、 第 1 4 2図 ( c ) は、 「 T U U P (濁度上昇) の M M (普通) 」 というメ ンバーシップ関数のチューニング前と後の 関数変化を図示している。
[0977] このように、 本発明によれば、 階層ネッ トワーク 部 1 5 9上にフア ジィ フアジィ制御ルールを写像さ せて、 制御対象から得られる制御データ郡を学習信 号として用いて階層ネッ トワークの重み値を学習す ると共に、 学習された階層ネッ トワークの重み値で もってファ ジィ制御ルール中に記述されるメ ンバ一 シップ閬数の関数形状のチューニングを実現するも のであることから、 フ ア ジ ィ制御ルールのメ ンバ一 シップ閬数のチューニ ン 'を機械的かつ客観的に実 行できるようになるのである。
[0978] このような前件部メ ンバシップ関数のチューニン グ時には、 前件部メ ンバシップ閬数に対応するュニ ッ トに対して第 1 1 4図で説明した学習調整器 2 6 0内の学習フラグをオンとすることによって学習が 行われるが、 ルールの重みづけのチューニングを行 う場合には第 1 4 0図でユニッ ト 2 1から前件部ル —ル部のュニ ッ ト 2 3まで、 またュニ ッ ト 2 3から 後件部ルール部のュニッ ト 2 4までの結合に対する 学習調整器の学習フラグをオンとすることによりチ ユーニングが行われる。 前述の第 1 4 1図のデータ を用いて、 ルール重みづけのチューニングシユ ミ レ —ショ ンを、 学習定数及びモーメ ンタムを前述と同 様に設定して実行した。
[0979] 第 1 4 3図に、 最も誤差値の小さ く なつた更新サ ィ クル回数が 1 0 0 0 @1のときの重み値の学習デー タを図示する。 この図では、 例えば No. 2 のフアジィ 制御ルール中の " 1.667528 " は第 1 3 4図に示す No. 2 のフア ジィ制御ルールの 「 T U 1 の M M」 を扱う 処理ュニッ ト 2 1 と No. 2 のフア ジィ制御ルールの前 件部演箕を扱う処理ュニッ ト 2 3 との間の内部結合 の重み値の学習データであるというよ'うに、 第 1 3 4図のフア ジィ制御ルールの I F部に表れる順番に 従って処理ユニッ ト 2 1 と処理ユニッ ト 2 3 との間 の内部結合の重み値の学習データを示すと共に、 例 えば Νο· 2 のファ ジィ制御ルール中の "0.640026"は、 Να 2 のフア ジィ制御ルールのファ ジィ演算を扱う処 理ュニッ ト 2 3 と α 2 のフア ジィ制御ルールのファ ジィ演算を扱う処置ュニッ ト 2 4 との間の重み値の 学習データいうように、 処理ュニッ ト 2 3 と処理ュ ニッ ト 2 4 との間の内部結合の重み値の学習データ を示してある。
[0980] この第 1 4 3図から、 第 1 3 4図に示す 4 のファ ジィ制御ルールを谪用する場合には、 「八し の A」 というメ ンバ一シップ閬数から求まるグレー ド 値を" 0.417323"倍し、 「 T U 1 の L A」 というメ ン バーシッブ関数から求まるグレード値を" 2.010990' 倍して、 小さい方の値等を特定すると共に、 その特 定した値を" 2. 166885"倍して、 Να 2 のフアジィ制御 ルールから求まる値との大きい方の値等でもって 「 D D 0 Sの Ν Μ」 というメ ンバーシップ関数のグ レー ド値を算出するというように処理すればよいこ とを表している。 また、 この図から、 Να 7や Να ΙΟの フアジィ制御ルールは、 他のフアジィ制御ルールに 比較して制御量の推諭値に対して比較的小さな寄与 しかしていないことや、 Να 3 のフアジィ制御ルール における 「 T U 1の S A」 のグレードは、 「 A L K の L A」 のグレード値に比べて制御量の推論値に対 して比較的小さな寄与しかしていないこと等が一目 見るだけで明らかになる。
[0981] この学習された重み値をフアジィ制御ルールの重 み付けの値として用いることで、 フアジィ制御ルー ルを制御対象に忠実なものとすることができるよう になるのである。
[0982] 階層ネ ッ トワーク部 1 5 9 は、 ソフ トウェア手段 によって実現するものであってもよいし、 ハードウ ヱァ手段によって実現するものであってもよい。 ハ 一ドウユア手段による構成方法を採る場合には、 本 出願人が出願した Γ特願昭 63-216865 号 (昭和 63年 8月 31日出願、 " ネ ッ トワーク構成データ処理装置") で開示したものを用いることが可能である。
[0983] 即ち、 基本ュニッ ト 1 は、 第 1 4 4図に示すよう に、 入力スィ ツチ部 3 0 1 を介して入力される前段 層からの出力と重み値保持部 3 0 8が保持する重み 値とを乗算する乗算型 D Z Aコ ンバータ 3 0 2 と、 乗算型 D Z Aコ ンバータ 3 0 2 の出力値と前面の累 算値とを加算して新たな累箕値を箕出するアナ口グ 加算器 3 0 3 a と、 アナログ加算器 3 0 3 a の加算 結果を保持するサンプルホールド回路 3 0 3 b と、 累算処理が終了したときにサンブルホールド回路 3 0 3 bの保持データを非線形変換する非線形関数発 生回路 3 0 4 と、 後断層への出力となる非線形関数 発生回路 3 0 4 のアナ口グ信号値をホールドする出 力保持部 3 0 5 と、 出力保持部 3 0 5の保持データ を出力する出力スィ ッチ部 3 0 6 と、 これらの各処 理部を制御する制御回路 3 0 9 とを備えることで実 現される。
[0984] そして階層ネッ トワーク部 1 5 9 は、 この構成を 採る基本ュニッ ト 1が、 第 1 4 5図に示すように、 1本の共通なアナログバス 3 1 0でもつて電気的に 接続される構成で実現される。 ここで、 図中、 3 1 1 は基本ュニッ ト 1 の重み保持部 3 0 8 に重み値を 与える重み出力回路、 3 1 2 は入力ユニッ ト 1, に 対応する初期信号出力回路、 3 1 3 はデータ転送の 制御信号である同期制御信号を重み出力回路 3 1 1 初期信号出力回路 3 1 2及び制御回路 3 0 9に伝え る同期制御信号線、 3 1 4 は同期制御信号を送出す る主制御回路である。
[0985] この構成の階層ネ ッ トワーク部 1 5 9 において、 主制御画路 3 1 4 は、 前段層の基本ュニッ ト 1を時 系列的に順次選択すると共に、 この選択処理と同期 させて、 選択された基本ュニッ ト 1 の出力保持部 3 0 5が保持する最終出力をアナログバス 3 1 0を介 して時分割の送信形式に従って後段層の基本ュニッ ト 1 の乗算型 D Z Aコ ンバータ 3 0 2に対して出力 するよう処理する。 この入力を受け取ると、 後段層 の基本ュニッ ト 1 の乗算型 D / A n ンバ一タ 3 0 2 は、 対応する重み値を順次選択して入力値と重み値 との乗算処理を行い、 アナログ加算器 3 0 3 a とサ ンプルホールド回路 3 0 3 b とにより構成される累 算処理部 3 0 3 はこの乗算値を順次累箕していく。 続いて、 前段層の基本ュニッ ト 1に関してのすべて の累算処理が終了すると、 主制御回路 3 1 4 は、 後 段層の基本ユニッ ト 1 の非線形関数発生回路 3 0 4 を起動して最終出力の算出を行い、 出力保持部 3 0 5がこの変換処理結果の最終出力を保持するよう処 理する。 そして、 主制御回路 3 1 4 は、 この後段層 を新たな前段層として次の後段層に対して同様の処 理を缲り返していく ことで、 入力パターンに対応す る出力パターンが出力されるべく処理するのである, 図示実施例について説明したが、 本発明はこれに 限定されるものではない。 例えば、 本出願人は、 先 に出願の 「特願昭 63-227825 号 (昭和 63年 9 月 12日 出願、 "ネ ッ トワーク構成データ処理装置の学習処 理方式" ) J で、 ノ ッ ク ' プロパゲーショ ン法の改 良を図ってより短時間で重み値の学習処理を実現で きるようにする発明を開示したが、 本発明はこのよ うな改良されたバック · プロバゲーショ ン法ゃバッ ク · プロバゲーショ ン法以外の別の重み値の学習方 式も利用することができるのである。 産業上 の 利 用 可能性
[0986] 以上、 詳細に説明したように、 本発明によれば理 解が容易なファ ジィ モデルの枠組で解釈する こ とが でき、 かつニューロの精度と学習能力を利用できる ニュー口 · フアジィ融合データ処理システムを構築 することができる。 従って本発明はフアジィ制御を 舍む制御システムの分野は当然のこととして、 あら ゆる分野におけるデータ処理システムに応用するこ とが可能である。
权利要求:
Claims 雷青 求 の 筆 囲
1 . 1つ又は複数個の入力信号を受け取る入力部 と、 該入力部の後段に位置し、 該 1つ又は複数個の 入力信号に対応して、 1 つ又は複数個の前件部メ ン バシ ップ関数の適合度を表すグレード値を出力する 前件部メ ンバシ ップ関数実現部と、
該前件部メ ンバシップ関数実現部の後段に位置し. 1層以上の階層型ネッ トワークで構成され、 該前件 部メ ンバシ ッ プ関数のグレー ド値を入力として、 1 つ又は複数個のシステム出力信号に対応する 1 つ又 は複数個の後件部メ ンバシ ッ プ閬数の拡大/縮小率 をフア ジィルールのグレード値として出力するルー ル部と、
該ルール部の後段に位置し、 該後件部メ ンバシ ッ ブ関数の拡大/縮小率を入力として、 該拡大/縮小 率に応じた後件部メ ンバシップ関数の拡大ノ縮小の 後に非フアジィ化の計算を行い、 システム出力信号 を出力する後件部メ ンバシ ップ関数実現 · 非ファジ ィ化部とを備えたことを特徴とするニュー口 · ファ ジィ融合データ処理システム。
2, 前記ルール部が、 該ルール部内部の前後の層 の間、 前記前件部メ ンバシ ッ プ閬数実現部と該ルー ル部との間、 及び、 又は該ルール部と前記後件部メ ンバシッブ関数 · 非フアジィ化部との間での、 結合 の有無、 及び該結合の重み値の 1部、 もしく は全部 がファジィ ルールに対応して設定されているプリ ヮ ィャ型であることを特徴とする請求項 1記載のニュ 一口 · フ ア ジィ融合データ処理システム。
3 . 前記ルール部が、 該ルール部内部の前後の層 の間、 前記前件部メ ンバシ ッ プ関数実現部と、 該ル ール部との間、 及び、 又は該ルール部と前記後件部 メ ンバシップ関数実現 · 非ファジィ化部との間で、 相互に完全結合されている全結合型であることを特 徴とする請求項 1記載のニューロ · フア ジィ融合デ 一夕処理システム。
4 . 前記前件部メ ンバシ ッ プ関数実現部が、 前記 ルール部と同様に階層型ネッ トワークで構成されて いることを特徴とする請求項 1 , 2 , 又は 3記載の ニュー口 · フ ァジィ融合データ処理システム。
5 . 前記前件部メ ンバシ ッ プ関数実現部内で、 前 記前件部メ ンバシップ閬数の適合度を表すグレード 値を出力するュニッ ト の 1部が、 該ュニッ トへの入 力結合の重み及び顧値の両者の符号を負として、 「入力信号が小さい」 というメ ンバシ ップ関数のグ レード値出力機能を有することを特徴とする請求項 4記載のニューロ · フア ジィ融合データ処理システ ム。
6 . 前記前件都メ ンバシ ッ プ閬数実現部内で、 前 記前件部メ ンバシ ップ閼数の適合度を表すグレー ド 値を出力するュニッ トの 1部が、 該ュニッ 卜への入 力信号の重み及び閻値の両者の符号を正として、 「入力信号が大きい」 というメ ンバシップ関数のグ レード値出力機能を有することを特徴とする請求項 4記載のニューロ · フア ジィ融合データ処理システ ム。
7 . 前記前件部メ ンバシップ関数実現部内で、 「入力信号が普通」 というメ ンバシップ関数のグレ ード値出力機能が、 該入力信号が共に入力され、 そ れぞれに対して設定された重み及び閽値に応じて該 入力信号のシグモイ ド閬数値を出力する 2つのュニ ッ ト と、
該 2つのュニッ トの出力の差をとり、 該前件部メ ンバシップ関数のグレード値を出力するュニッ トと で構成されることを特徴とする請求項 4記載のニュ 一口 . フア ジィ融合データ処理システム。
8 . 前記ルール部のユニッ トの 1部が、 2つの入 力に対する論理積、 論理和、 代数積、 代数和、 限界 積、 限界和、 激烈積、 激烈和、 平均、 恒真、 恒偽、 又は 2つの入力の一方のみの出力の論理演算機能を 有することを特徴とする請求項 1 , 2 , 又は 3記載 のニューロ · フア ジィ融合データシステム。
9 . 前記ルール部内の 1部のュニッ トが、 複数個 の入力 X h X z, · · · , X n に対して、 Sを正、 t を 0 と 1 の問に設定し、 該複数個のそれぞれの入力 に対応する結合の重み W!, W2, · · , W„ と閻値 Θを
Wi = S 〔 Xi 〕 (i =1,2, ♦ · · n ) ,
Θ = - S { (否定の入力数) 一 t }
= 0.5S { ∑ ( X i ) - ( n - 2 t ) }
+ 1 X i : 肯定のとき
で 〔 Xi 〕 =
- 1 X i : 否定のとき によつて決定する とにより、 該複数個の入力の和 演箕を
(一 Wi X i + θ ) に従って行う ことを特徴とする請求項 1 , 2または 3記載のニューロ , フア ジィ融合データ処理システ ム。
10. 前記ルール部内の一部のュニッ トが、 複数個 の入力 X , , Χ2 , · · · , Χη に対して、 s を正. tを 0 と 1 の間に設定、 該複数個のそれぞれの入力 に対する結合の重み , W2 · · · Wn と閻値と を
Θ = S { (肯定の入力数) 一 t } = 0.5S { ∑ 〔 X i 〕 + ( n— 2 t )
i = 1 + 1 X i : 肯定のとき で 〔 X i 〕 =
一 1 X i : 否定のとき によって決定する とにより、 該複数個の入力に対 する積演算を
( X X X n ) = 1 / 1 + exp
(一 W i X i 十 に従って実行することを特徴とする請求項 1 , 2ま たは 3記載のニューロ · ファ ジィ融合データ処理シ ステム。
11 . 前記後件部メ ンバシップ関数実現 · 非ファジ ィ化部が、 前記ルール部が出力する後件部メ ンバシ ップ関数の拡大ノ縮小率に応じて、 前記 1つ以上の システム出力信号のそれぞれに対応して該後件部メ ンバシップ閬数の拡大/縮小を行う 1つ以上の後件 部メ ンバシ ップ関数実現部と、
該 1 つ以上の後件部メ ンバシ ッブ閬数実現部の出 力を用いてそれぞれ対応する前記システム出力信号 としての代表値を算出する 1つ以上の非ファジィ化 計算実現部とを備えたことを特徴とする請求項 1 , 2または 3記載のニューロ * ファジィ融合データ処 理システム。
12. 前記 1つ以上のそれぞれの後件部メ ンバシ ッ プ関数実現部が、 1層以上の階層型ニューラルネ ッ ト ワークで構成され、 該階層型ニューラルネ ッ ト ヮ —ク内の前後の層間の結合、 および該結合の重みが 後件部メ ンバシップ関数に対応して設定されている ことを特徴とする請求項 1 1記載のニューロ · ファ ジ ィ融合データ処理システム。
13. 前記各後件部メ ンバシ ッ プ関数実現部が、 前 記後件部メ ンバシップ閬数曲線の複数の横座標値に それぞれ対応する複数個のュニッ トを備え、
前記ルール部内で、 前記対応するシステム出力信 号に関する 1 つ以上の後件部メ ンバシ 'ンプ関数の拡 大 /縮小率を出力する各ュニッ トと、 該複数個のュ ニッ トとの間のそれぞれの結合の重みとして、 該各 横座標値における該後件部メ ンバシ ップ関数のグレ ー ド値が設定されることを特徴とする請求項 1 2記 載のニューロ · フア ジィ融合データ処理システム。
14. 前記各後件部メ ンバシ ッ プ関数実現部が、 前 記後件部メ ンバシ ップ関数曲線の複数の横座標値に それぞれ対応する複数個のュニッ トを備え、
前記ルール部内で、 対応する システム出力信号に 関する 1つ以上のファジィルールのグレ一 ド値を出 力する各ュニッ ト と該複数個のュニッ 卜 との間のそ れぞれの結合の重みとして、 該各フアジィルールの 後件部において指定される後件部メ ンバシ ップ関数 曲線の横座標値に相当するュニッ トとの間の結合に 対しては 1を、 該結合を除く他の結合には 0を設定 することを特徴とする請求項 1 2記載のニューロ - フ ア ジ ィ融合データ処理システム。
15. 前記後件部メ ンバシッブ関数実現部に備えら れる複数個のュニッ 卜のうちの一部が、 該ュニッ ト に入力される複数個の入力の論理和を出力すること を特徴とする請求項 1 4記載のニューロ · フア ジィ 融合データ処理システム。
16. 前記後件部メ ンバシ ップ関数実現部が備える 複数偭のュニッ トのうちの一部が、 該ュニッ トに入 力される複数個の入力の代数和を出力することを特 徴とする請求項 1 4記載のニューロ · フ ア ジィ融合 データ処理システム。
17. 前記各非ファジィ化計算実現部が、 前記後件 部メ ンバシ ップ閬数実現部が出力する後件部メ ンバ シ ップ閬数の拡大ノ縮小結果としての複数個の信号 がそれぞれ入力される 2個のュニツ トを備えた重心 決定要素出力部と、
該重心決定要素出力部が出力する 2個の重心決定 要素を用いて前記システム出力信号すなわち代表値 として重心値を出力する重心算出部とを備えたこと を特徴とする請求項 1 1記載のニューロ · フ ア ジィ 融合データ処理システム。
18. 前記重心決定要素出力部において、 前記後件 部メ ンバシ ップ関数の拡大ノ縮小結果としての複数 個の出力に対応する後件部メ ンバシ ップ閩数曲線の 横座標値のうちで最小の座標値 (①) と該複数個の 出力にそれぞれ対応する座標値 (②) とのそれぞれ の差すなわち重み (重み = ®—①) と、 該複数個の 出力のう ちで該対応する出力との積の総和を、 前記 2個のュニッ トのうちの第 1 のュニッ トが出力 (④) し、
該複数個の出力に対応する横座標値のうちで最大 の座標値 (③) と該複数個の各出力に対応する座標 値 (②) とのそれぞれの差すなわち重み (重み-②
10 ー③) と、 該複数個の出力のう ちで該対応する出力 との積の総和を、 前記 2個のュニッ トのうちの第 2 のュニッ トが出力 (⑤) し、
④ X③ー⑤ X①
― =里心
④ー⑤
15 より前記重心値を求めることを特徴とする請求項 1 7記載のニューロ · フ ア ジ ィ融合データ処理システ ム。
19. 前記第 1、 第 2のュニッ トが、 それぞれ前記 総和に定数を乗じた結果を出力することを特徴とす
20 る請求項 1 8記載のニューロ ' フア ジィ融合データ 処理システム。
20. 前記重心決定要素出力部としての重心決定要
V
素出力装置に対して、
前記後件部メ ンバシップ関数曲線の複数の横座標
25 値のう ちで最大と最小の座標値である 2つの端点座 標と、 該重心を通る直線の傾きとを記憶する端点座 標および傾き記憶手段と、
入力される真の重心値と、 該端点座標とよび傾き 記憶手段に記憶されている端点座標と重心を通る直 線の傾きとを用いて、 重心を計算するための 2つの 重心決定要素に対する教師信号を求めて出力する教 師信号計算手段を有し、
該教師信号を、 重心を通る一定の傾きを持つ直線 の式によって決定する教師信号決定装置を備えたこ とを特徴とする請求項 1 7 , 1 8または 1 9記載の ニューロ · フア ジィ融合データ処理システム。
21. 前記重心決定要素出力部としての重心決定要 素出力装置に対して、
前記後件部メ ンバシッブ関数曲線の横座標値のう ちで最大と最小の座標値である 2つの端点座標を記 憶する端点座標記憶手段と、
入力される真の重心値と、 該重心决定要素出力装 置が出力する 2つの重心決定要素の値と、 該端点座 標記憶手段に記憶されている端点座標とを用いて、 重心を計算するための 2つの重心決定要素に対する 教師信号を求めて出力する教師信号計算手段を有し、 該教師信号を、 該 2つの重心決定要素の出力値に よって決まる直線と同じ傾きを持ち、 真の重心値を 通る直線の式によって決定する教師信号決定装置を 備えたことを特徴とする請求項 1 7 , 1 8または 1 9記載のニューロ · フ ア ジィ融合データ処理システ ム。
22. 前記後件部メ ンバシ ップ関数実現 · 非ファ ジ ィ化部が、 2層以上の階層型ニューラルネ ッ トヮー クによって構成されることを特徴とする請求項 1 ,
2またば 3記載のニューロ . フア ジィ融合データ処 理システム。
23. 前記後件部メ ンバシップ関数実現 · 非ファ ジ ィ化部が、 層間の結合が前記後件部メ ンバシ ッブ関 数に対応して設定され、 該後件部メ ンバシップ関数 の拡大ノ縮小を行う後件部メ ンバシ ッブ関数実現部 と、
該後件部メ ンバシ ッブ関数実現部の出力により前 記出力信号としての重心値を算出する 1層以上の中 間層を有する階層型ニューラルネッ トワーク と して の重心計算実現部とを備えたことを特徴とする請求 項 2 2記載のニューロ · フアジィ融合データ処理シ ステム。
24. 前記後件都メ ンバシ ップ関数実現部と重心計 算実現部との間に、 該後件部メ ンバシ ッ プ藺数実現 部からの出力を該重心計算実現部の入力ュニッ トの 所定入力範囲に適当な関数を用いて写像する入力化 正規化装置を、
また前記重心計算実現部の後段に該重心計算実現部 の出力としての重心座標値を適当な座標値範囲に写 像する出力復元装置を備えたことを特徴とする請求 項 2 3記載のニューロ · フア ジィ融合データ処理シ ステム。
25. 前記入力正規化装置が写像のための関数とし て、 線型関数
関数値 = 0. 6 X (後件部メ ンバシップ関数実現部 出力) ノ 10 + 0. 2
を、 前記出力復元装置が写像のための関数として他 の線型閼数
閼数値 = 4 X (重心計算実現部出力一 0. 2 )
ノ 0. 6 + 1
を用いることを特徴とする請求項 2 4記載のニュー 口 ' フア ジィ融合データ処理システム。
26. 前記後件部メ ンバシップ関数曲線の横座標値 に対応する値として乱数を用い、 該乱数を線型関数 によって前記重心計算実現部としての階層型ニュー ラルネ ッ トワークの入力範囲に写像した教師データ を学習データ として供給し、 該階層型ニューラルネ ッ トワークを学習させる重心学習装置を備えたこと を特徴とする請求項 2 3, 2 4または 2 5記載の二 ユーロ · ファ ジィ融合データ処理システム。
27. 前記重心学習装置が、 前記後件部メ ンバシッ プ関数曲線の横座標値に対応する値として乱数を発 生させる乱数発生部と、
該後件部メ ンバシップ関数曲線の複数偭の横座標 値、 教師データ数を舍む定数を保存する定数保存部 と、
該定数保存部に保存されている定数と乱数発生部 が発生した乱数に基づいて、 該乱数を適当な線型閬 数で前記重心計算実現部としての階層型ニューラル ネッ トワークの入力範囲に写像した教師データを発 生する教師データ発生部とを備えたことを特徴とす る請求項 2 6記載のニューロ · ファ ジィ融合データ 処理システム。
28. 前記後件部メ ンバシップ関数実現 · 非フア ジ ィ化部が 2個の入力ユニッ ト、 1個の出力ユニッ ト . および 1層以上の中間層を有する割り算ネッ トヮ一 クであり、
前記ルール部が出力する 1つまたは複数個の後件 部メ ンバシッブ関数の拡大ノ縮小率としてのフア ジ ィルールのグレード値を出力するュニッ トと、 該 2 個の入力ュニッ トのう ちの第 1 のュニッ トとの間の 結合の重みが、 各フアジィルールの後件部で指定さ れる後件部メ ンバシップ関数曲線の横座標値として 設定され、
該ファジィルールのグレード値を出力するュニッ トと該 2個の入力ュニッ トのうちの第 2のュニッ ト との間の結合の重みが ' 1 ' に設定され、
該割り算ネ ッ トワークが該第 1 のュニッ トへの入 力の総和を第 2のュニッ トへの入力の総和で割った 結果を出力することを特徴とする請求項 1 , 2また は 3記載のニューロノ フア ジィ融合データ処理シス テム。
29. 前記後件部メ ンバシッブ関数実現 · 非ファジ ィ化部の学習時に、 前記割り箕ネッ トワーク の 2つ の入力ュニッ トへの入力結合の重みのみをバックプ 口バゲーショ ン法によって学習させることを特徴と する請求項 2 8記載のニューロ · ファジィ融合デー タ処理システム。
30. 前記前件部メ ンバシ ップ関数が、 入力 Xと出 力 Υとの間の関係として
X aで Y = 0 , a < X < bで Y = ( X— a ) / ( b - a ) , b ^ Xで Y = l
と定義され、 ニューロ ンの特性が
Y = l / { l -f-exp(-WX -f-e) }
である時、 重み Wおよび閿値 を
W= 4 / ( b - a ) , θ = 2 ( a + b ) / ( b - a )
とすることにより、 該ニューロンによる該メ ンバシ ップ閼数の近似を感度の上限を明確にして実現する ことを特徴とする請求項 1 , 2または 3記載のニュ 一口 ' フ ァ ジィ融合データ処理システム。
31. 前記前件部メ ンバシ ップ関数が、 入力 Xと出 力 Yとの間の関係として
X aで Y = 0 , a < X < bで Y = ( X— a ) ノ ( b — a ) , b ≤ Xで Y = l
と定義され、 ニューロ ンの特性が
Y -0.5 +0.5 tanh( Χ - θ ) }
である時、 重み Wおよび閽値 0を
W= 2 / ( b - a ) , 0 = ( a + b ) / ( b - a ) とすることにより、 該ニューロンによる該メ ンバシ ップ関数の近似を感度の上限を明確にして実現する ことを特徴とする請求項 1 , 2または 3記載のニュ 一口 · フ ア ジ ィ融合データ処理システム。
32. 前記前件部メ ンバシ ッ プ関数が、 入力 Xと出 力 Yとの間の関係として
X≤ aで Y = 0 , a < X < bで Y = ( X— a ) / ( b - a ) , b ^ Xで Y == l
と定義され、 ニューロ ンの特性が
Υ = 1 / { 1 +exp(- W X + Θ ) }
である時、 重み Wおよび閻値 0を
W =5.3605/(b-a), Θ = 2.6802 (a + b) / (b-a) とすることにより、 該ニューロンによる該メ ンバシ ップ関数の近似を誤差の絶対値の積分を最小として 実現することを特徴とする請求項 1 , 2または 3記 載のニューロ . フア ジィ融合データ処理システム。
33. 前記前件部メ ンバシ ッ プ関数が、 入力 Xと出 力 Yとの間の関係として
X aで Y = 0 , a < Xく bで Y = ( X— a ) / ( b - a ) , b ^ Xで Y = l と定義され、 ニューロ ンの特性が
Y =0.5 十 0.5 tanh( WX - Θ ) }
である時、 重み Wおよび閻値 0を
W=2.6802/(b-a), Θ = 1.3401 (a + b) / (b-a) とすることにより、 該ニューロンによる該メ ンバシ ップ閔数の近似を誤差の絶対値の積分を最小として 実現することを特徴とする請求項 1 , 2または 3記 載のニューロ · フア ジィ融合データ処理システム。
34. 前記前件部メ ンバシ ップ関数が、 入力 Xと出 力 Yとの間の関係として
X≤ aで Y = 0 , aく X < bで Y = ( X— a ) / ( b - a ) , b ^ Xで Y = l
と定義され、 ニューロ ンの特性が
Υ = 1 / { 1 + exp ( 一 W X + 6 ) }
である時、 重み Wおよび閽値 0を
W =5.3012/(b-a), Θ = 2.6506 + b)/(b - a) とすることにより、 該ニューロンによる該メ ンバシ ッブ関数の近似を誤差の 2乗の積分を最小として実 現することを特徴とする請求項 1, 2または 3記載 のニューロ · フアジィ融合データ処理システム。
35. 前記前件部メ ンバシ ッ プ関数が、 入力 Xと出 力 Yとの間の関係として
X≤ aで Y= 0, a く Xく bで Y = ( X— a ) / ( b - a ) , で Y = l
と定義され、 ニューロ ンの特性が Y =0.5 +0.5 tanh( Χ - θ ) }
である時、 重み Wおよび閽値 0を
W = 2.6506/(b-a), Θ = 1.3253(a + b)/(b-a) とするこ とにより、 該ニューロ ンによる該メ ンバシ ップ関数の近似を誤差の 2乗の積分を最小として実 現することを特徴とする請求項 1 , 2または 3記載 のニューロ · フア ジィ融合データ処理システム。
36. 前記前件部メ ンバシ ップ関数が、 入力 Xと出 力 Yとの間の関係として
X aで Y = 0 , a < X < bで Y = ( X— a ) / ( b - a ) , b≤ Xで Y = l
と定義され、 ニューロ ンの特性が
Υ = 1 / { 1 + exp ( — W X + 0 ) }
である時、 重み Wおよび閾値 0を
W =5.648 /(b-a), θ =2.824 (a + b)/(b-a) とするこ とにより、 該ニュ一ロ ンによる該メ ンバシ ッブ関数の近似を最大誤差を最小として実現するこ とを特徴とする請求項 1 , 2または 3記載のニュー 口 · ファ ジィ融合データ処理システム。
37. 前記前件部メ ンバシップ関数が、 入力 Xと出 力 Yとの間の関係として
X aで Y = 0 , aく X < bで Y = ( X— a ) / ( b - a ) , b≤ Xで Y = l
と定義され、 ニューロ ンの特性が
Υ =0.5 +0.5 tanh( W X - 5 ) } である時、 重み Wおよび閽値 を
W=2.824 /(b-a), θ =1.412 (a + b)/(b-a) とすることにより、 該ニューロ ンによる該メ ンバシ ップ関数の近似を最大誤差を最小として実現するこ とを特徴とする請求項 1 , 2または 3記載のニュー 口 · フア ジィ融合データ処理システム。
38. 前記前件部メ ンバシッブ関数の入力 Xと出力 Yとの間の関係が
X a — b— cで Y = 0、 a - b - c < X≤ a - bで Y = { X— ( a — b — (: ) } ノ 0、
a — b < X " + bで Y = l、 a + b < X≤ a -t- b十 cで Υ =— { X - ( a + b十 c ) } Z C、
a + b + c < Xで Y = 0、
で定義される時、 該メ ンバシ ッブ関数の近似を感度 の上限を ± 1ノ Cとして実現する 3層の階層型ニュ 一ラルネ ッ ト ワークを、
第 1層を入力値をそのまま出力する 1個のュニッ 卜、
第 2層を非線型特性を持つ 2個のュニッ ト、 第 3層の第 2層の 2個のニューロ ンの出力の和か ら 1を引いた結果を出力する 1個のニューロ ン によって構成し、
第 2層のュニッ トの特性が
Y = 1 / { 1 +exP ( - W X + ^ ) }
である時、 第 2層の 2個のュニッ トのう ちの 1個の 重み、 閻値を
W= 4 / C , θ = 2 ( 2 a - 2 b - c ) / C とし、 他の 1個の重み、 閻値を
W = - 4 /C , Θ = - 2 ( 2 a + 2 b + c ) / C とすることを特徴とする請求項 1 , 2または 3記載 のニューロ · フア ジィ融合データ処理システム。
39. 前記前件部メ ンバシップ関数の入力 Xと出力 Υとの間の関係が
X≤ a — b— cで Y = 0、 a - b - c < X≤ a - bで Y = { X— ( a — b— c ) } /C、
a — b < X≤ a + bで Y = l、 a + bく X + b + cで Y =— { X - ( a + b + c ) } / C.
a + b + c < Xで Y = 0、
で定義される時、 該メ ンバシ ップ関数の近似を感度 の上限を土 1ノ Cと して実現する 3層の階層型ニュ 一ラルネ ッ トワークを、
第 1層を入力値をそのまま出力する 1個のュニッ 卜、
第 2層を非線型特性を持つ 2個のュニッ ト、 第 3層の第 2層の 2個のニューロ ンの出力の和か ら 1 を引いた結果を出力する 1個のニューロ ン によって構成し、
第 2層のュニッ トの特性が
Y =0.5 +0.5 tanh (Ψ X - Θ ) }
である時、 第 2層の 2個のュニッ トのう ちの 1個の 重み、 闥値を
W = 2 / C , ^ = ( 2 a - 2 b - c ) /C とし、 他の 1個の重み、 閻値を
W = - 2 / C , 5 = - ( 2 a + 2 b + c ) /C とすることを特徴とする請求項 1 , 2または 3記載 のニューロ · フア ジィ融合データ処理システム。
40. 前記前件部メ ンバシ ッブ関数の入力 Xと出力 Yとの間の関係が
X — b — cで Y = 0、 a - b - c < X≤ a - bで Y = { X— ( a - b - c ) } ZC、
a — b < X a + bで Y = l、 a + b < X≤ a + b + cで Y =— { X - ( a + b + c ) } / C .
a + b + c < Xで Y = 0、
で定義される時、 該メ ンバシッブ関数の近似を最大 誤差を最小として実現する 3層の階層型ニューラル ネッ トワークを、
第 1層を入力値をそのまま出力する 1個のュニッ 卜、
第 2層を非線型特性を持つ 2個のュニッ ト、 第 3層の第 2層の 2個のニューロ ンの出力の和か ら 1 を引いた結果を出力する 1個のニューロ ン によって構成し、
第 2層のュニッ トの特性が
Y = 1 / { l +exp(— W X + }
である時、 第 2層の 2個のュニッ トのう ちの 1個の 重み、 閻値を
W =5.468/C, Θ =2.824(2a-2b- c ) / C とし、 他の 1個の重み、 閻値を
W = -5.468/C, θ = -2.824(2a + 2b + c ) / C とすることを特徴とする請求項 1 , 2または 3記載 のニューロ · フア ジィ融合データ処理システム。
41. 前記前件部メ ンバシ ッブ関数の入力 Xと出力 Yとの間の関係が
X≤ a — b — c で Y = 0、 a - b - c < X≤ a - bで Y = { X - ( a - b - c ) } / C ,
a — b < X a + bで、 Y = l , a + b < X≤ a + b + cで Y =— { X - ( a + b + c ) } / C , a + b + c < Xで Y = 0
で定義される時、 該メ ンバシ ップ関数の近似を最大 誤差を最小として実現する 3層の階層型ニューラル ネ ッ トワークを、
第 1層を入力値をそのまま出力する 1個のュニッ 卜、
第 2層を非線型特性を持つ 2個のュニッ ト、 第 3層を第 2層の 2個のニューロ ンの出力の和か ら 1 を引いた結果を出力する 1個のニューロ ン によって構成し、
第 2層のュニッ トの特性が
Y =0.5 十 0.5 tanh (W X - Θ )
である時、 第 2層の 2個のユニッ トのうちの 1個の 重み、 閽値を
W =2.824 / C , θ = 1.412(23-25-0) / C とし、 他の 1偭の重み、 閽値を
W = -2.824 /C, 6 = -1.412(2a+2b+c)/C とすることを特徴とする請求項 1 , 2 , または 3記 載のニューロ · フアジィ融合データ処理システム。
42. 1 つ以上の入力信号を受け取る入力部と、 該入力部の後段に位置し、 1つ以上の前件部メ ン バシップ関数のグレード値を出力する前件部メ ンバ シ ッ プ関数実現部と、
該前件部メ ンバシップ閬数実現部の後段に位置し. 1層以上の階層型ネッ トワークで構成され、 該前件 部メ ンバシ ッ プ関数のグレード値を入力として、 1 つまたは複数個のシステム出力信号に対応する 1つ または複数個の後件部メ ンバシ ップ関数の拡大/縮 小率をフア ジィルールのグレード値として出力する ルール部と、
該ルール部の後段に位置し、 該後件部メ ンバシ ッ プ関数の拡大ノ縮小率に応じた後件部メ ンバシ ップ 関数の拡大ノ縮小の後に非ファ ジィ化の計算を行い. システム出力信号を出力する後件部メ ンバシ ッブ関 数実現 · 非ファ ジィ化部とを備え、
入力される制御状態量に対する制御操作量をファ ジ ィ制御ルールに従って算出して出力するニューロ · フ ア ジィ融合データ処理システムにおいて、 少なく ともルール部が階層型ニューラルネ ッ ト ヮ 一クを構成し、
該階層型ニューラルネッ トワークの所定の隣接す る階層間で全体のデータ処理に対する影響の少ない 結線を検出して取り除く こ とにより、 ネ ッ ト ワーク 構造を単純化することを特徴とする階層型ネッ トヮ ークにおけるネ ッ トワーク構造変換方式。
43. 初めに前記階層型ニューラルネ ッ トワークは 全ての隣接する階層間が完全結合されている純ニュ 一口であり、
該純ニューロを、 その前件部メ ンバシップ関数実 現部とルール部の間、 ルール部内の前後層の簡、 お よびルール部と後件部メ ンバシ ップ関数実現 . 非フ ア ジィ化部の間のみがそれぞれ完全結合され、 残り の前件部メ ンバシップ閬数実現部および後件部メ ン バシッブ関数実現 ♦ 非ファ ジィ化部内では、 全体の データ処理に影響の少ない結線が取り除かれている ルール部全結合ニューロに変換することを特徴とす る請求項 4 2記載の階層型ネ ッ トワークにおけるネ ッ ト ワーク構造変換方式。
44. 初めに前記階層型ニューラルネ 'ン トワークは 全ての隣接する階層間が完全結合されている純ニュ 一口であり、
該純ニューロを、 前件部メ ンバシ ップ関数実現部 とルール部との間、 ルール部内の前後層の間、 およ びルール部と後件部メ ンバシップ閬数実現 · 非ファ ジィ化部の間のそれぞれの階層間で全体の処理に対 する影響の少ない結線を取り除いたルール部プリ ヮ ィャニューロに変換することを特徴とする請求項 4 2記載の階層型ネッ トワークの構造変換方式。
45. 初めに少なく ともルール部がニューラルネッ トである前記階層型ニューラルネッ トワークは前件 部メ ンバシ ップ関数実現部とルール部との間、 ルー ル部内の前後層の間、 およびルール部と後件部メ ン バシップ関数実現 · 非フアジィ化部の間のみがそれ ぞれ完全結合されているルール部全結合ニュ一口で あり、
該ルール部全結合ニューロを、 その前件部メ ンバ シップ関数実現部とルール部の間、 ルール部内の前 後層の間、 およびルール部と後件部メ ンバシ ップ関 数実現 * 非フアジィ化部との間のそれぞれの階層間 で、 全体の処理に対する影響の少ない結線を取り除 いたルール部ブリ ワイヤニューロに変換することを 特徴とする請求項 4 2記載の階層型ネッ トワーク の 構造変換方式。
46. 1 つ以上の入力信号を受け取る入力部と、 該入力部の後段に位置し、 1 つ以上の前件部メ ン バシップ関数のグレード値を出力する前件部メ ンバ シ ッブ閬数実現部と、
該前件部メ ンバシ ッ プ関数実現部の後段に位置し、 1層以上の階層型ネッ トワークで構成され、 該前件 部メ ンバーシップ関数のグレード値を入力として、 1つ又は複数個のシステム出力信号に対応する 1 つ 又は複数個の後件部メ ンバシ ッブ関数の拡大ノ縮小 率をフア ジィルールのグレー ド値として出力するル ール部と、
該ルール部の後段に位置し、 該後件部メ ンバシ ッ プ関数の拡大ノ縮小率に応じた後件部メ ンバシ 'ンプ 関数の拡大ノ縮小の後に非ファジィ化の計算を行い. システム出力信号を出力する後件部メ ンバシ 'ンプ関 数実現 · 非ファジィ化部とを備え、
入力される制御状態量に対する制御操作量をファ ジィ制御ルールに従って算出して出力するニューロ • フ ア ジィ融合データ処理システムにおいて、 少な く ともルール部が階層型ニュ一ラルネッ ト ヮ ークを構成しており、
該階層型ニュ一ラルネ ッ トワークが、 ルール部プ リ ワイ ヤニューロであり、
該プリ ワイヤニューロのルール部の各ュニッ トの 機能を解折して特定の論理素子の機能に対応づける ことによりプリ ワイ ヤニューロ力、らフア ジィルール を抽出することを特徴とするフアジィモデル抽出方 式。
47. 1 つ以上の入力信号を受け取る入力部と、 該入力部の後段に位置し、 1つ以上の前件部メ ン バシップ関数のグレー ド値を出力する前件部メ ンバ シ ップ関数実現部と、
該前件部メ ンバシ ッブ関数実現部の後段に位置し 1層以上の階層型ネッ トワークで構成され、 該前件 部メ ンバシ ッ プ関数のグレード値を入力として、 1 つ又は複数個のシステム出力信号に対応する 1つ又 は複数個の後件部メ ンバシップ関数の拡大ノ縮小率 をファ ジィルールのグレード値として出力するルー ル部と、
該ルール部の後段に位置し、 該後件部メ ンバシ ッ プ関数の拡大 縮小率に応じた、 後件部メ ンバシ ッ プ関数の拡大 縮小の後に非ファジィ化の計算を行 い、 システム出力信号を出力する後件部メ ンバシ ッ ブ関数実現 · 非ファ ジィ化部とを備え、
入力される制御状態量に対する制御操作量をファ ジィ制御ルールに従って算出して出力するニューロ • フ ア ジ ィ融合データ処理システムにおいて、 入力部、 前件部メ ンバシ ッ プ関数実現部、 ルール 部、 及び少なく とも後件部メ ンバシ ップ関数実現 · 非ファジィ化部の一部が階層型ニュ一ラルネッ トヮ ークを構成しており、
該階層型ニューラルネッ トワークが、 前件部メ ン バシ ッブ関数実現部とルール部との間、 ルール部内 の前後層間、 ルール部と後件部メ ンバシ ッ プ関数実 現 · 非フア ジィ化部との間のみが完全結合され、 残 り の前件部メ ンバシ ップ関数実現部及び後件部メ ン バシップ関数実現 ♦ 非フアジィ化部内では全体のデ ータ処理に影響の少ない結線が取り除かれているル 一ル部全結合ニューロであり、
該ルール部全結合ニューロを解析してメ ンバシ ッ プ関数を抽出することを特徴とするフアジィ モデル 抽出方式。
48. 1 つ以上の入力信号を受け取る入力部と、 該入力部の後段に位置し、 1つ以上の前件部メ ン バシ ッブ関数のグレー ド値を出力する前件部メ ンバ シ ッブ関数実現部と、
該前件部メ ンバシ ッブ関数実現部の後段に位置し. 1層以上の階層型ネッ トワークで構成され、 該前件 部メ ンバシ ッ プ関数のグレード値を入力として、 1 つ又は複数個のシステム出力信号に対応する 1つ又 は複数個の後件部メ ンバシップ関数の拡大/縮小率 をフアジィルールのグレード値として出力するルー ル部と、
該ルール部の後段に位置し、 該後件部メ ンバシ ッ ブ関数の拡大ノ縮小率に応じた後件部メ ンバシ ッ プ 関数の拡大ノ縮小の後に非ファジィ化の計算を行い システム出力信号を出力する後件部メ ンバシ ッブ関 数実現 · 非ファ ジィ化部とを備え、
入力される制御状態量に対する制御操作量をファ ジィ制御ルールに従って算出して出力するニューロ ' フア ジィ融合データ処理システムにおいて、 入力部、 前件部メ ンバシ ッ プ関数実現部、 ルール 部、 及び少なく とも後件部メ ンバシ ッ プ関数実現 · 非ファジィ化部の一部が階層型ニューラルネ ッ トヮ —クを構成し、
始めに該階層型ニューラルネッ トワークは全ての 瞵接する階層間が完全結合されている純ニューロで あり、 当該純ニュ一口は、 その前件部メ ンバシ ッ プ 関数実現部とルール部の間、 ルール部の前後層間、 及びルール部と後件部メ ンバシップ関数実現 . 非フ ア ジィ化部の間のみがそれぞれ完全結合され、 残り の前件部メ ンバシ ッブ関数実現部及び後件部メ ンバ シッブ関数実現 ♦ 非ファジィ化部内では全体のデー タ処理に影響の少ない結線が取り除かれているルー ル部全結合ニュ一口に変換し、
次に当該ルール部全結合ニューロを解折して、 メ ンバシップ関数を抽出することを特徴とするフアジ ィモデル抽出方式。
49. 1つ以上の入力信号を受け取る入力部と、 該入力部の後段に位置し、 1つ以上の前件部メ ン バシップ関数のグレード値を出力する前件部メ ンバ シ ップ閬数実現部と、
該前件部メ ンバシップ関数実現部の後段に位置し、
1層以上の階層型ネッ トワークで構成され、 該前件 部メ ンバシ ッ プ関数のグレー ド値を入力として、 1 つ又は複数個のシステム出力信号に対応する 1 つ又 は複数個の後件部メ ンバシップ閬数の拡大ノ縮小率 をファ ジィルールのグレー ド値として出力するルー ル部と、
該ルール部の後段に位置し、 該後件部メ ンバシッ ブ関数の拡大ノ縮小率に応じた、 後件部メ ンバシッ プ関数の拡大/縮小の後に非ファ ジィ化の計算を行 い、 システム出力信号を出力する後件部メ ンバシ ッ ブ関数実現 · 非ファジィ化部とを備え、
入力される制御状態量に対する制御操作董をファ ジィ制御ルールに従って算出して出力するニューロ • フア ジィ融合データ処理システムにおいて、 入力部、 前件部メ ンバシップ関数実現部、 ルール 部、 及び少なく とも後件部メ ンバシ ップ関数実現 · 非ファ ジィ化部の一部が階層型ニュ一ラルネ ッ トヮ ークを構成し、
始めに該階層型ニューラルネッ トワークは全ての 隣接する階層問が完全結合されている純ニューロで あり、 当該純ニューロを、 その前件部メ ンバシップ 関数実現部とルール部の間、 ルール部の前後層間、 反びルール部と後件部メ ンバシッブ関数実現 · 非フ ァジィ化部との間それぞれの階層間で全体のデータ 処理に影響の少ない結線が取り除かれているルール 部プリ ワイ ヤニューロに変換し、
次に当該ルール部プリ ヮィャニューロを解析して メ ンバシップ関数を抽出することを特徴とするファ ジィ モデル抽出方式。
50. 1つ以上の入力信号を受け取る入力部と、 該入力部の後段に位置し、 1つ以上の前件部メ ン バシップ関数のグレー ド値を出力する前件部メ ンバ シ ップ関数実現部と、
該前件部メ ンバシップ関数実現部の後段に位置し
1層以上の階層型ネッ トワークで構成され、 該前件 部メ ンバシ ッ プ関数のグレー ド値を入力として、 1 つ又は複数個のシステム出力信号に対応する 1 つ又 は複数個の後件部メ ンバシップ関数の拡大ノ縮小率 をファジィルールのグレード値として出力するルー ル部と、
該ルール部の後段に位置し、 該後件部メ ンバシッ ブ関数の拡大 縮小率に応じた、 後件部メ ンバシ ッ ブ関数の拡大ノ縮小の後に非ファ ジィ化の計算を行 い、 システム出力信号を出力する後件部メ ンバシ ッ プ関数実現 · 非ファジィ化部とを備え、
入力される制御状態量に対する制御操作量をファ ジィ制御ルールに従って算出して出力するニューロ フ ア ジ ィ融合デ一タ処理システムにおいて、
入力部、 前件都メ ンバシ ッ プ関数実現部、 ルール 部、 及び少なく とも後件部メ ンバシ 'ンプ関数実現 - 非ファ ジィ化部の一部が階層型ニュ一ラルネ ッ トヮ ークを構成し、 始めに該階層型ニューラルネ ッ ト ワークは全ての 隣接する階層間が完全結合されている純ニューロで あり、 当該純ニュー ロを、 前件部メ ンバシ ップ関数 実現部とルール部の間、 ルール部の前後層間、 及び ルール部と後件部メ ンバシッブ関数実現 . 非ファジ ィ化部の間のそれぞれの階層間で、 全体の処理に対 する影響の少ない結線を取り除いたルール部プリ ヮ ィ ャニューロに変換し、
次に当該ルール部プリ ワイヤニュー ロを解析して. フア ジィルールを抽出することを特徴とするファ ジ ィ モデル抽出方式。
51. 1 つ以上の入力信号を受け取る入力部と、 該入力部の後段に位置し、 1つ以上の前件部メ ン バシ ップ関数のグレード値を出力する前件部メ ンバ シ ッ プ関数実現部と、
該前件部メ ンバシップ関数実現部の後段に位置し.
1層以上の階層型ネッ トワークで構成され、 該前件 部メ ンバシ ッ プ関数のグレード値を入力として、 1 つ又は複数個のシステム出力信号に対応する 1つ又 は複数個の後件部メ ンバシップ関数の拡大/縮小率 をフア ジィルールのグレード値として出力するルー ル部と、
該ルール部の後段に位置し、 該後件部メ ンバシ ッ プ関数の拡大 縮小率に応じた後件部メ ンバシ ップ 関数の拡大ノ縮小の後に非ファジィ化の計算を行い システム出力信号を出力する後件部メ ンバシ ップ関 数実現 · 非フア ジィ化部とを備え、
入力される制御状態量に対する制御操作量をファ ジィ制御ルールに従って算出して出力するニューロ · フ ア ジィ融合データ処理システムにおいて、 少なく ともルール部が階層型ニュ一ラルネ ッ トヮ 一クを構成し、
始めに該階層型ニューラルネッ トワークは前件部 メ ンバシップ関数実現部とルール部の間、 ルール部 の前後層間、 及びルール部と後件部メ ンバシ ッ プ関 数実現 · 非ファジィ化部の間のみがそれぞれ完全結 合され、 ルール部全結合ニューロであり、 当該ルー ル部全結合ニューロを、 その前件部メ ンバシ ッ プ閬 数実現部とルール部の間、 ルール部の前後層間、 及 びルール部と後件部メ ンバシ ップ関数実現 · 非ファ ジィ化部の間のそれぞれの階層間で、 全体の処理に 対する影響の少ない結線を取り除いたルール部プリ ワ イ ヤニューロに変換し、
次に当該ルール部プリ ヮィャニューロを解析して, フアジィルールを抽出することを特徴とするフアジ ィ モデル抽出方式。
52. 前件部メ ンバシ ッ プ関数実現部、 1又は複数 階層でなるルール部、 及び後件部メ ンバシ ッ プ関数 実現 · 非ファ ジィ化部でなる階層ネッ トワークを有 し、 前記ルール部は、 前段の前件部メ ンバシ ップ関 数実現部及び又は後段の後件部メ ンバシッブ関数実 現部 · 非ファジィ化部との間で、 及びルール部内の 前後層間で全ュニッ ト間を内部結合せずに制御ルー ルに従って一部を内部結合して成り、 入力される制 御状態量 ( Χ ,, Χ 2, · · · X n ) に対応する 1又は 複数の制御操作量 ( Y ) を出力するルール部プリ ヮ ィ ャニュー口の学習方法に於いて、
前記前件部メ ンバシップ関数実現部に予め持って いる知識に基づき又は乱数を用いて重み値を初期設 定すると共に、 前記ルール部及び後件部メ ンバシッ プ関数実現 · 非フア ジィ化部に予め持っている知識 に基づいて重み値を初期設定する第 1過程と ; 学習データを使用して前記前件部メ ンバシ ッブ関 数実現部の重みを学習させる第 2過程と ;
学習データを使用して前記前件部メ ンバシ ップ関 数実現部、 ルール部及び後件部メ ンバシ ッ プ関数実 現 · 非フア ジィ化部の全体の重みを学習させる第 3 過程と ;
を備えたことを特徴とするルール部プリ ワイ ヤニュ —口の学習方法。
53. 前件部メ ンバシ ッ プ関数実現部、 1又は複数 階層でなるルール部、 及び後件部メ ンバシ ッ プ関数 実現 · 非フア ジィ化部でなる階層ネッ トワークを有 し、 前記ルール部は、 前段の前件部メ ンバシ ッ プ関 数実現部及び又は後段の後件部メ ンバシ ッブ関数実 現 . 非ファジィ化部との間、 及びルール部内の前後 層間で全ュニッ ト間を内部結合せずに制御ルールに 従って一部を内部結合して成り、 入力される制御状 態量 ( Χ , , Χ 2, · · · X n ) に対応する 1又は複数 の制御操作量 ( Y ) を出力するルール部プリ ワ イ ヤ ニューロの学習方法に於いて、
前記ルール部に予め持っている知識に基づき又は 乱数を用いて重み値を初期設定すると共に、 前記前 件部メ ンバシ ップ関数実現部及び後件部メ ンバシ ッ プ関数実現 · 非フアジィ化部に予め持っている知識 に基づいて重み値を初期設定する第 1過程と ; 学習データを使用して前記ルール部の重みを学習 させる第 2過程と ;
学習データを使用して前記前件部メ ンバシ ップ閬 数実現部、 ルール部及び後件部メ ンバシ ッ プ関数実 現 · 非フア ジィ化部の全体の重みを学習させる第 3 過程と ;
を備えたことを特徴とするルール部プリ ワ イ ヤニュ 一口の学習方法。
54. 前件部メ ンバシ ッ プ関数実現部、 1又は複数 階層でなるルール部、 及び後件部メ ンバシ ッ プ関数 実現 · 非フア ジィ化部でなる階層ネ ッ トワークを有 し、 前記ルール部は、 前段の前件部メ ンバシ ッ プ関 数実現部及び又は後段の後件部メ ンバシ ッブ関数実 現 · 非ファジィ化部との問、 及びルール部内の前後 層間で全ュニッ ト間を内部結合せずに制御ルールに 従って一部を内部結合して成り、 入力される制御状 態量 ( X X 2 , · · · X„ ) に対応する 1又は複数 の制御操作量 ( Y ) を出力するルール部プリ ワ イ ヤ ニューロの学習方法に於いて、
前記ルール部に予め持っている知識に基づき又は 乱数を用いて重み値を初期設定すると共に、 前記前 件部メ ンバシ ップ関数実現部及び後件部メ ンバシ ッ プ関数実現 · 非ファ ジィ化部に予め持っている知識 に基づいて重み値を初期設定する第 1過程と ; 学習データを使用して前記ルール部の重みを学習 させる第 2過程と ;
学習データを使用して前記前件部メ ンバシ ップ関 数実現部の重みを学習させる第 3過程と ;
学習データを使用して前記前件部メ ンバシ ップ関 数実現部、 ルール部及び後件部メ ンバシ ッ プ関数実 現 * 非フア ジィ化部の全体の重みを学習させる第 4 過程と ;
を備えたことを特徴とするルール部プリ ワイ ヤニュ 一口 の学習方法。
55. 前件部メ ンバシ ッ プ関数実現部、 1又は複数 階層でなるルール部、 及び後件部メ ンバシ ップ関数 実現 · 非ファ ジィ化部でなる階層ネ ッ トワークを有 し、 前記ルール部は前段の前件部メ ンバシ ッ プ関数 実現部及び又は後段の後件部メ ンバシ ッ プ関数実現 · 非フア ジィ化部との間、 およびルール部内の前後 層間で全ュニッ ト間を内部結合せずに制御ルールに 従って一部を内部結合して成り、 入力される制御状 態量 ( X i , X 2 , · · · X n ) に対応する 1又は 複数の制御操作量 ( Y ) を出力するルール部プリ ヮ ィ ャニュー口の学習方法に於いて、
前記前件部メ ンバシ ッブ関数実現部に予め持って いる知識に基づき又は乱数を用いて重み値を初期設 定すると共に、 前記ルール部及び後件部メ ンバシ ッ プ関数実現 · 非フア ジィ化部に予め持っている知識 に基づいて重み値を初期設定する第 1過程と ; 学習データを使用して前記前件部メ ンバシ ップ閬 数実現部の重みを学習させる第 2過程と ;
学習データを使用して前記ルール部の重みを学習 させる第 3過程と ;
学習データを使用して前記前件部メ ンバシ ップ関 数実現部、 ルール部及び後件部メ ンバシ ッ プ関数実 現 · 非ファ ジィ化部の全体の重みを学習させる第 4 過程と ;
を備えたことを特徴とするルール部プリ ワ イ ヤ二 ユーロの学習方法。
56. 前件部メ ンバシ ッ プ関数実現部、 1又は複数 階層でなるルール部、 及び後件部メ ンバシ ッ プ関数 実現 · 非ファ ジィ化部でなる階層ネ ッ トワークを有 し、 前記ルール部は前段の前件部メ ンバシ ップ関数 実現部及び又は後段の後件部メ ンバシ ップ関数実現 • 非フアジィ化部との間、 およびルール部内の前後 層間で全ュニッ ト間を内部結合せずに制御ルールに 従って一部を内部結合して成り、 入力される制御状 態量 ( X i , X 2 , · · · X n ) に対応する 1又は 複数の制御操作量 ( Y ) を出力するルール部プリ ヮ ィ ャニューロの学習方法に於いて、
前記前件部,メ ンバシ ップ関数実現部及びルール部 に予め持っている知識に基づき又は乱数を用いて重 み値を初期設定すると共に、 前記後件部メ ンバシ 'ン ブ関数実現 · 非フア ジィ化部に予め持っている知識 に基づいて重み値を初期設定する第 1過程と ; 学習データを使用して前記前件部メ ンバシ ップ関 数実現部及びルール部の重みを同時に学習させる第 2過程と ;
学習データを使用して前記前件部メ ンバシ ップ関 数実現部、 ルール部及び後件部メ ンバシ ッ プ関数実 現 · 非フア ジィ化部の全体の重みを学習させる第 3 過程と ;
を備えたことを特徴とするルール部プリ ワイ ヤ二 ユーロの学習方法。
57. 前件部メ ンバシ ッ プ関数実現部、 1又は複数 階層でなるルール部、 及び後件部メ ンバシ ップ関数 実現 · 非フア ジィ化部でなる階層ネ ッ トワークを有 し、 前記ルール部は前段の前件部メ ンバシ ッ プ関数 実現部及び又は後段の後件部メ ンバシッブ関数実現 • 非フア ジィ化部との間、 およびルール部内の前後 層間で全ュニッ ト間を内部結合せずに制御ルールに 従って一部を内部結合して成り、 入力される制御状 態量 ( X ! , X 2 , · · · X n ) に対応する 1又は 複数の制御操作量 ( Y ) を出力するルール部プリ ヮ ィ ャニュー口の学習方法に於いて、
前記前件部メ ンバシ ップ関数実現部に予め持って いる知識に基づき又は乱数を用いて重み値を初期設 定すると共に、 前記ルール部及び後件部メ ンバシ ッ プ関数実現 · 非フア ジィ化部に予め持っている知識 に基づいて重み値を初期設定する第 1過程と ; 学習データを使用して前記前件部メ ンバシップ関 数実現部の重みを学習させる第 2過程と ;
学習データを使用して前記後件部メ ンバシ ップ関 数実現 * 非フア ジィ化部の重みを学習させる第 3過 程と ;
学習データを使用して前記前件部メ ンバシ ップ関 数実現部、 ルール部及び後件部メ ンバシ ッ プ関数実 現 · 非フア ジィ化部の全体の重みを学習させる第 4 過程と ;
を備えたことを特徴とするルール部プリ ワイ ヤ二 ユーロの学習方法。
58. 前件部メ ンバシ ッ プ関数実現部、 1又は複数 階層でなるルール部、 及び後件部メ ンバシ ッブ関数 実現 * 非フア ジィ化部でなる階層ネ ッ トワークを有 し、 前記ルール部は前段の前件部メ ンバシ ッ プ関数 実現部及び又は後段の後件部メ ンバシッブ閬数実現 • 非フア ジィ化部との間、 およびルール部内の前後 層間で全ュニッ ト間を内部結合せずに制御ルールに 従って一部を内部結合して成り、 入力される制御状 態量 ( X , , Χ 2 , · · · Χ„ ) に対応する 1又は 複数の制御操作量 ( Υ ) を出力するルール部プリ ヮ ィャニューロの学習方法に於いて、
前記ルール部に予め持っている知識に基づき又は 乱数を用いて重み値を初期設定すると共に、 前記前 件部メ ンバシッブ関数実現部及び後件部メ ンバシッ ブ関数実現 · 非フア ジィ化部に予め持っている知識 に基づいて重み値を初期設定する第 1過程と ; 学習データを使用して前記ルール部の重みを学習 させる第 2過程と ;
学習データを使用して前記後件部メ ンバシ ップ閬 数実現 · 非フアジィ化部の重みを学習させる第 3過 程と ;
学習データを使用して前記前件部メ ンバシ ッブ関 数実現部、 ルール部及び後件部メ ンバシ ッ プ関数実 現 · 非フア ジィ化部の全体の重みを学習させる第 4 過程と ;
を備えたことを特徴とするルール部プリ ワ イ ヤ二 ユーロの学習方法。
59. 前件部メ ンバシ ッ プ関数実現部、 1又は複数 階層でなるルール部、 及び後件部メ ンバシップ関数 実現部でなる階層ネッ トワークを有し、 前記ルール 部は前段の前件部メ ンバシ ップ関数実現部及び又は 後段の後件部メ ンバシ ップ関数実現 · 非ファ ジィ化 部との間、 およびルール部内の前後層間で全ュニッ ト間を内部結合せずに制御ルールに従って一部を内 部結合して成り、 入力される制御状態量 ( X , , X 2 , · · · X n ) に対応する 1又は複数の制御操作 量 ( Υ ) を出力するルール部プリ ワイヤニューロの 学習方法において、
前記ルール部に予め持っている知識に基づき又は 乱数を用いて重み値を初期設定すると共に、 前記前 件部メ ンバシ ッブ関数実現部及び後件部メ ンバシ ッ プ関数実現 · 非ファ ジィ化部に予め持っている知識 に基づいて重み値を初期設定する第 1過程と ; 学習データを使用して前記ルール部の重みを学習 させる第 2過程と ;
学習データを使用して前記前件部メ ンバシ ッブ関 数実現部の重みを学習させる第 3過程と ;
学習データを使用して前記後件部メ ンバシ ップ関 数実現 , 非フア ジィ化部の重みを学習させる第 4過 程と ;
学習データを使用して前記前件部メ ンバシッブ関 数実現部、 ルール部及び後件部メ ンバシップ関数実 現 · 非ファ ジィ化部の全体の重みを学習させる第 5 過程と ;
を備えたことを特徴とするルール部プリ ワ イ ヤ二 ユーロの学習方法。
60. 前件部メ ンバシ ッ プ関数実現部、 1又は複数 階層でなるルール部、 及び後件部メ ンバシ 'ンプ関数 実現 * 非フア ジィ化部でなる階層ネッ トワークを有 し、 前記ルール部は前段の前件部メ ンバシ ッ プ関数 実現部及び又は後段の後件部メ ンバシ ップ関数実現 ' 非フア ジィ化部との間、 およびルール部内の前後 層間で全ュニッ ト間を内部結合せずに制御ルールに 従って一部を内部結合して成り、 入力される制御状 態量 ( X , , X 2 , · · · Χ η ) に対応する 1又は 複数の制御操作量 ( Υ ) を出力するルール部プリ ヮ ィ ャニューロの学習方法に於いて、
前記前件部メ ンバシ ップ関数実現部に予め持って いる知識に基づき又は乱数を用いて重み値を初期設 定すると共に、 前記ルール部及び後件部メ ンバシ ッ ブ関数実現 · 非ファ ジィ化部に予め持っている知識 に基づいて重み値を初期設定する第 1過程と ; 学習データを使用して前記前件部メ ンバシ ップ関 数実現部の重みを学習させる第 2過程と ;
学習データを使用して前記ルール部の重みを学習 させる第 3過程と ;
学習データを使用して前記後件部メ ンバシ ップ関 数実現 · 非フア ジィ化部の重みを学習させる第 4過 程と ;
学習データを使用して前記前件部メ ンバシ ッブ関 数実現部、 ルール部及び後件部メ ンバシ ッ プ関数実 現 · 非フア ジィ化部の全体の重みを学習させる第 5 過程と ;
を備えたことを特徴とするルール部プリ ワ イ ヤ二 ユーロの学習方法。
61. 前件部メ ンバシ ッ プ関数実現部、 1又は複数 階層でなるルール部、 及び後件部メ ンバシ ッ プ関数 実現 · 非フア ジィ化部でなる階層ネ ッ トワークを有 し、 前記ルール部は前段の前件部メ ンバシ ッ プ関数 実現部及び又は後段の後件部メ ンバシッブ関数実現 • 非フア ジィ化部との間、 およびルール部内の前後 層間で全ュニッ ト間を内部結合せずに制御ルールに 従って一部を内部結合して成り、 入力される制御状 態量 ( Χ , , Χ ζ , · · · X n ) に対応する 1又は 複数の制御操作量 ( Y ) を出力するルール部プリ ヮ ィャニューロの学習方法において、
前記前件部メ ンバシ ッ プ関数実現部及びルール部 に予め持っている知識に基づき又は乱数を用いて重 み値を初期設定すると共に、 前記後件部メ ンバシ ッ ブ関数実現 · 非フア ジィ化部に予め持っている知識 に基づいて重み値を初期設定する第 1過程と ; 学習データを使用して前記前件部メ ンバシ ッ プ関 数実現部及びルール部の重みを同時に学習させる第 2過程と ;
学習データを使用して前記後件部メ ンバシ ッブ関 数実現 · 非フア ジィ化部の重みを学習させる第 3過 程と ;
学習データを使用して前記前件部メ ンバシ ップ関 数実現部、 ルール部及び後件部メ ンバシ ッ プ関数実 現 · 非フア ジィ化部の全体の重みを学習させる第 4 過程と ;
を備えたことを特徴とするルール部プリ ワ イ ヤ二 ユー oの学習方法。
62. 最初に重みの学習を行う部分の前記第 1過程 における重み初期値の設定は、 予め持っている知識 で設定可能な重みは該知識で初期設定し、 その他は 乱数を用いて初期設定することを特徴とする請求項 5 2乃至 6 1記載のルール部プリ ワイ ヤニューロの 学習方法。
63. データ処理対象の入出力信号関係をフア ジィ 推論形式で記述するフ ア ジィモデルの前件部メ ンバ シップ関数、 フア ジィルール、 および後件部メ ンバ シ ッブ閬数に応じて、
前件部メ ンバシ ッ プ関数実現部内、 前件部とルー ル部の間、 ルール部内、 ルール部と後件部メ ンバシ ッブ関数実現 · 非ファ ジィ化部との間、 および後件 部メ ンバシッブ関数実現 · 非フア ジィ化部内の結合 の重みと閻値を設定し、
前記フア ジィモデルをルール部プリ ワイ ヤニュー 口に変換することを特徴とするフア ジィモデルから ルール部プリ ワイヤニュー口への変換方式。
64. 前記ルール部プリ ワイ ヤニューロに、 前記フ ア ジィモデルの入出力データを学習させるこ とによ り、 該ルール部プリ ワイ ヤニューロをチューニング することを特徴とする請求項 6 3記載のフア ジイ セ ッ トからルール部プリ ワ イ ヤニューロへの変換方式,
65. データ処理対象の入出力信号関係をフア ジィ 推論形式で記述するフア ジィ モデルの前件部メ ンバ シップ関数、 および後件部メ ンバシップ関数に応じ て、
前件部メ ンバシップ関数実現部内、 及び後件部メ ンバシップ関数実現 · 非フアジィ化部内の結合の重 みと閾値を設定し、
該ファジィモデルを、 前件部メ ンバシップ関数実 現部とルール部の間、 ルール部内、 およびルール部 と後件部メ ンバシップ関数実現 · 非フア ジィ化部の 間でそれぞれ前後層間が完全結合されたルール部全 結合ニューロに変換することを特徴とするフア ジィ モデルからルール部全結合ニュー口への変換方式。
66. 前記ルール部全結合ニューロに、 前記フア ジ ィモデルの入出力データを学習させるこ とにより、 該ル一ル部全結合ニューロをチューニングすること を特徴とする請求項 6 5記載のフア ジィモデルから ルール部全結合ニュ一口への変換方式。
67. データ処理対象の入出力信号関係をファ ジィ 推論形式で記述するファ ジィモデルと、
全ての隙接する階層間が完全結合されている階層 型ニューラルネッ トワークである純ニューロとを備 え、
該フア ジィ モデルの入出力データを純ニューロに 学習させることにより、 該フア ジィ モデルのデータ 処理機能を純ニュー π上に写像することを特徴とす るフアジィ モデルから純ニュ一口への変換方式。
68. 全ての隣接する階層間が完全結合されている 階層型ニューラルネッ トワークである純ニューロと 前件部メ ンバシ ップ関数実現部とルール部との間. ルール部内の前後層間、 およびルール部と後件部メ ンバシ ッブ関数実現 · 非フアジィ化部の間のそれぞ れの階層間で全体の処理に対する影響の少ない結線 が取り除かれているルール部プリ ワイヤニューロと を備え、
該純ニュ一口 の入出力データをルール部プリ ワ イ ャニューロに学習させることにより、 純ニューロの データ処理機能をルール部プリ ワイヤニュー口上に 写像する ::とを特徴とする純ニューロからルール部 プリ ワイ ャニューロへの変換方式。
69. 全ての隣接する階層間が完全結合されている 階層型ニューラルネ ッ ト ワークである純ニューロ と 前件部メ ンバシ ップ実現関数部とルール部との間 ルール部内の前後層間、 およびルール部と後件部メ ンバシ ップ関数実現 , 非フアジィ化部の間のみがそ れぞれ完全結合され、 残りの前件部メ ンバシ ッブ閬 数実現部、 および後件部メ ンバシ ッ プ関数実現 ♦ 非 フア ジィ化部内では全体のデータ処理 影響の少な い結線が取り除かれているルール部全結合ニューロ とを備え、
該純ニュー口の入出力データをルール部全結合二 ユーロに学習させるこ とによ り、 純ニューロ のデー タ処理機能をルール部全結合ニューロ上に写像する ことを特徴とする純ニューロからルール部全結合二 ュ一口への変換方式。
70. 1 つ以上の入力信号を受け取る入力部と、 該入力部の後段に位置し、 1 つ以上の前件部メ ン バシ ップ関数のグレー ド値を出力する前件部メ ンバ シ ップ関数実現部と、
該前件部メ ンバシ ッ プ関数実現部の後段に位置し, 1層以上の階層型ネッ トワークで構成され、 該前件 部メ ンバシ ッ プ関数のグレード値を入力として、 1 つ又は複数個のシステム出力信号に対応する 1 つま たは複数個の後件部メ ンバシップ関数の拡大/縮小 率をファジィルールのグレー ド値として出力するル ール部と、 該ルール部の後段に位置し、 該後件部メ ンバシ ッ プ関数の拡大ノ縮小率に応じた後件部メ ンバシ ップ 関数の拡大/縮小の後に非フア ジィ化の計算を行い. システム出力信号を出力する後件部メ ンバシ ッ プ関 数実現 · 非ファ ジィ化部とを備え、
該ルール部がニューロ ンによって構成されている ことを特徴とするニューロ · フア ジィ融合データ処 理システム。
71. 1 つ又は複数個の入力信号を受け取る入力部 と、 該入力部の後段に位置し、 該 1 つ又は複数個の 入力信号に対応して、 1つ又は複数個の前件部メ ン バシップ関数の適合度を表すグレード値を出力する 前件部メ ンバシ ップ関数実現部と、
該前件部メ ンバシ ップ関数実現部の後段に位置し 1層以上の階層型ネッ トワークで構成され、 該前件 部メ ンバシ ッ プ関数のグレー ド値を入力として、 1 つ又は複数個のシステム出力信号に対応する 1 つ又 は複数個の後件部メ ンバシップ関数を変形するため の変形情報をフ ア ジィルールのグレード値として出 力するルール部と、
該ルール部の後段に位置し、 該後件部メ ンバシ ッ プ関数の変形情報を入力として、 該変形情報に応じ た後件部メ ンバシップ関数の変形を行った後に非フ アジィ化の計算を行い、 システム出力信号を出力す る後件部メ ンバシップ関数実現 · 非フア ジィ化部と を備えたことを特徴とするニ ュ ー π . フア ジィ融合 データ処理システム
类似技术:
公开号 | 公开日 | 专利标题
Singh et al.2013|High-order fuzzy-neuro expert system for time series forecasting
Melin et al.2012|A new approach for time series prediction using ensembles of ANFIS models
Papageorgiou2011|A new methodology for decisions in medical informatics using fuzzy cognitive maps based on fuzzy rule-extraction techniques
Yuan et al.1996|A genetic algorithm for generating fuzzy classification rules
Ivakhnenko1970|Heuristic self-organization in problems of engineering cybernetics
Park et al.1995|A self-organizing fuzzy logic controller for dynamic systems using a fuzzy auto-regressive moving average | model
Jagielska et al.1999|An investigation into the application of neural networks, fuzzy logic, genetic algorithms, and rough sets to automated knowledge acquisition for classification problems
US5398300A|1995-03-14|Neural network having expert system functionality
Kim et al.2007|A hybrid approach based on neural networks and genetic algorithms for detecting temporal patterns in stock markets
Papageorgiou et al.2006|Unsupervised learning techniques for fine-tuning fuzzy cognitive map causal links
Farag et al.1998|A genetic-based neuro-fuzzy approach for modeling and control of dynamical systems
Wang et al.1997|Function approximation using fuzzy neural networks with robust learning algorithm
Mori et al.1995|Optimal fuzzy inference for short-term load forecasting
Castro et al.2002|Interpretation of artificial neural networks by means of fuzzy rules
Cord2001|Genetic fuzzy systems: evolutionary tuning and learning of fuzzy knowledge bases
KR0184276B1|1999-05-15|학습형 의지결정 지원 시스템
US5751915A|1998-05-12|Elastic fuzzy logic system
Cloete et al.2000|Knowledge-based neurocomputing
Farina et al.2002|On the optimal solution definition for many-criteria optimization problems
Zadeh1996|Soft computing and fuzzy logic
Pearlmutter1995|Gradient calculations for dynamic recurrent neural networks: A survey
Takagi1998|Interactive evolutionary computation
Ishibuchi et al.1993|Neural networks that learn from fuzzy if-then rules
Foster et al.1992|Neural network forecasting of short, noisy time series
US5241620A|1993-08-31|Embedding neural networks into spreadsheet applications
同族专利:
公开号 | 公开日
EP0471857A4|1993-04-28|
EP0471857B1|2000-02-02|
US5875284A|1999-02-23|
KR920702784A|1992-10-06|
CA2057078A1|1991-09-13|
EP0471857A1|1992-02-26|
CA2057078C|2000-04-11|
US6456989B1|2002-09-24|
KR950012380B1|1995-10-17|
引用文献:
公开号 | 申请日 | 公开日 | 申请人 | 专利标题
法律状态:
1991-09-19| AK| Designated states|Kind code of ref document: A1 Designated state(s): AU CA KR US |
1991-09-19| AL| Designated countries for regional patents|Kind code of ref document: A1 Designated state(s): AT BE CH DE DK ES FR GB GR IT LU NL SE |
1991-11-12| WWE| Wipo information: entry into national phase|Ref document number: 2057078 Country of ref document: CA |
1991-11-18| WWE| Wipo information: entry into national phase|Ref document number: 1991905520 Country of ref document: EP |
1992-02-26| WWP| Wipo information: published in national office|Ref document number: 1991905520 Country of ref document: EP |
2000-02-02| WWG| Wipo information: grant in national office|Ref document number: 1991905520 Country of ref document: EP |
优先权:
申请号 | 申请日 | 专利标题
JP2060256A|JP2763366B2|1990-03-12|1990-03-12|階層ネットワーク構成データ処理装置及びデータ処理システム|
JP2060263A|JP2763371B2|1990-03-12|1990-03-12|階層ネットワーク構成ファジィ制御器|
JP2060258A|JP2544821B2|1990-03-12|1990-03-12|階層ネットワ―ク構成デ―タ処理装置|
JP2060257A|JP2744321B2|1990-03-12|1990-03-12|適応型データ処理装置の解析処理方法|
JP2/60260||1990-03-12||
JP2/60259||1990-03-12||
JP2060262A|JP2763370B2|1990-03-12|1990-03-12|階層ネットワーク構成ファジィ制御器|
JP2/60262||1990-03-12||
JP2/60263||1990-03-12||
JP2/60258||1990-03-12||
JP2060260A|JP2763368B2|1990-03-12|1990-03-12|ファジィ制御におけるメンバーシップ関数のチューニング方法|
JP2/60261||1990-03-12||
JP2/60256||1990-03-12||
JP2060259A|JP2763367B2|1990-03-12|1990-03-12|ファジィ制御ルールの生成方法|
JP2060261A|JP2763369B2|1990-03-12|1990-03-12|ファジィ制御ルールのチューニング方法|
JP2/60257||1990-03-12||
JP2/66851||1990-03-19||
JP2/66852||1990-03-19||
JP2066852A|JP2761569B2|1990-03-19|1990-03-19|重心決定要素出力装置の教師信号決定装置|
JP2066851A|JP2501932B2|1990-03-19|1990-03-19|ニュ―ラルネットワ―クによる重心決定要素出力装置|
JP2/197919||1990-07-27||
JP2197919A|JPH0484356A|1990-07-27|1990-07-27|Centroid outputting device by neural network|CA002057078A| CA2057078C|1990-03-12|1991-03-12|Neuro-fuzzy fusion data processing system|
US07/773,576| US5875284A|1990-03-12|1991-03-12|Neuro-fuzzy-integrated data processing system|
AU74509/91A| AU653146B2|1990-03-12|1991-03-12|Integrated fuzzy logic neural network processor and controller|
KR91701593A| KR950012380B1|1990-03-12|1991-03-12|뉴로-퍼지 융합 데이터처리 시스템|
EP91905520A| EP0471857B1|1990-03-12|1991-03-12|Neuro-fuzzy integrated data processing system; network structure conversion system ; fuzzy model extracting system|
[返回顶部]