JPH06131320A - Signal processor - Google Patents

Signal processor

Info

Publication number
JPH06131320A
JPH06131320A JP4282587A JP28258792A JPH06131320A JP H06131320 A JPH06131320 A JP H06131320A JP 4282587 A JP4282587 A JP 4282587A JP 28258792 A JP28258792 A JP 28258792A JP H06131320 A JPH06131320 A JP H06131320A
Authority
JP
Japan
Prior art keywords
output
signal
value
neural network
neurons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4282587A
Other languages
Japanese (ja)
Inventor
Shuji Motomura
修二 本村
Toshiyuki Furuta
俊之 古田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP4282587A priority Critical patent/JPH06131320A/en
Publication of JPH06131320A publication Critical patent/JPH06131320A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To attain a high-speed response by decreasing the number of times of required measurement in the case of calculating an average value as an output value for dealing with the fluctuation of pulse density in a pulse density type neural network. CONSTITUTION:This signal processor for hierarchically forming a neural network 1 from an input layer to an output layer by coupling plural signal processing units 2, 3 and 4 for outputting a signal sequence composed of binarized information units as an output signal by receiving a signal sequence composed of binarized information units as an input signal and performing prescribed operation processing is provided with a counting means 5 for counting the number of specified information units in binary values of the output signal of the present unit 4 corresponding to one or all the signal processing units 4, and adding means 6 for adding output values from the plural counting means 5 so as to calculate the multiple additive average value.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、神経回路網の情報処理
機能を人工的に実現することを目指した並列分散型情報
処理装置であって、文字・画像認識、音声認識、ロボッ
ト制御、画像処理、自然言語処理、連想記憶等に利用さ
れる、所謂ニューロコンピュータと称される信号処理装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a parallel distributed information processing apparatus aiming at artificially realizing the information processing function of a neural network, including character / image recognition, voice recognition, robot control, and image processing. The present invention relates to a signal processing device called a so-called neurocomputer, which is used for processing, natural language processing, associative memory, and the like.

【0002】[0002]

【従来の技術】近年、ニューラルネットワークをハード
ウエアにより実現する試みが多くなされている。このよ
うなハードウエア化は、アナログ型とデジタル型とに大
別される。デジタル型の中には、信号をパルス列で表現
する方式のパルス密度型ニューラルネットワークがあ
る。このようなパルス密度型ニューラルネットワーク
は、フォワードプロセスに関しては特開平4−549号
公報を基本とし、学習プロセスに関しては特開平4−1
11185号公報を基本として、種々の改良されたもの
が本出願人により提案されている。本出願人によるもの
以外にも、パルス密度型ニューラルネットワークとして
は、例えば特開平1−244567号公報や米国特許4
893255号明細書に示されるようなものもあるが、
その信号処理の仕方は、各々の種類によって異なる。
2. Description of the Related Art Recently, many attempts have been made to realize a neural network by hardware. Such hardware implementation is roughly classified into an analog type and a digital type. Among the digital type, there is a pulse density type neural network that expresses a signal by a pulse train. Such a pulse density type neural network is based on Japanese Patent Application Laid-Open No. 4-549 as a forward process, and Japanese Patent Application Laid-Open No. 4-1 as a learning process.
Various improved products have been proposed by the present applicant based on 11185. A pulse density type neural network other than the one by the present applicant is disclosed in, for example, Japanese Patent Application Laid-Open No. 1-244567 or US Pat.
Some of them are shown in the specification of 893255,
The method of signal processing differs depending on each type.

【0003】ここでは、本出願人により提案されている
パルス密度型ニューラルネットワークにおける信号処理
について説明する。まず、パルス列としては、実際には
ビット列を用いる。即ち、値として“0”又は“1”を
とるビットの列(2値化され情報単位)でパルス列を表
し、値が“1”であるビットで1つのパルスを表し、値
が“0”であるビットでパルスが無いことを表す。
Here, signal processing in the pulse density type neural network proposed by the present applicant will be described. First, a bit train is actually used as the pulse train. That is, a train of bits (binaryized information unit) that takes "0" or "1" as a value represents a pulse train, a bit having a value of "1" represents one pulse, and a value of "0" represents a pulse. A bit indicates that there is no pulse.

【0004】信号の値は、パルス列中のパルス密度、即
ち、ビット列中の値“1”のビットの密度で表す。例え
ば、ビット列の長さを10ビットとすると、このニュー
ラルネットワークに値0.6の信号を入力したとき、こ
のニューラルネットワークには10個のビットの内、6
個が値“1”であり、残り4個が値“0”であるビット
列が入ることになる。密度は1.0を越えることはない
ので、信号の値の最大値は1.0である。
The value of the signal is represented by the pulse density in the pulse train, that is, the density of bits having the value "1" in the bit train. For example, assuming that the bit string has a length of 10 bits, when a signal having a value of 0.6 is input to this neural network, 6 out of 10 bits are input to this neural network.
Bit strings of which the value is “1” and the remaining four are of the value “0” are input. Since the density never exceeds 1.0, the maximum value of the signal is 1.0.

【0005】ニューラルネットワーク内の各ニューロン
ユニットへは、ニューラルネットワークの外から、又
は、ニューラルネットワーク内の他の幾つかのニューロ
ンユニットから送られたビット列が入力信号として入っ
てくる。ニューロンユニットと他のニューロンユニット
との結合の強さを表す結合係数も、ビット列で表し、入
力信号の結合係数による重み付けは、入力ビット列と結
合係数ビット列との論理積をとることにより行う。ニュ
ーロンユニットは、このように重み付けされた入力信号
を幾つかのグループに分け、各グループ毎に個別に、こ
れらの重み付けされた入力信号同士の論理和を演算す
る。ついで、各グループ毎に得られた論理和結果のビッ
ト列に対して、所定の論理演算を施して、新たなビット
列を生成し、そのビット列を出力信号としてニューロン
ユニットの外に出力する。このようなニューロンユニッ
トからの出力信号は、ニューラルネットワーク内の他の
幾つかのニューロンユニットへ送られてそのニューロン
ユニットの入力信号となったり、或いは、ニューラルネ
ットワーク外に出力されてニューラルネットワーク自身
の出力信号となる。図5に1つのニューロンユニット構
成のイメージ図を示す。
Each neuron unit in the neural network receives as an input signal a bit string sent from outside the neural network or from some other neuron unit in the neural network. The coupling coefficient representing the strength of coupling between the neuron unit and another neuron unit is also represented by a bit string, and weighting by the coupling coefficient of the input signal is performed by taking the logical product of the input bit string and the coupling coefficient bit string. The neuron unit divides the weighted input signal into several groups, and individually calculates the logical sum of these weighted input signals for each group. Then, a predetermined logical operation is performed on the bit string of the logical sum result obtained for each group to generate a new bit string, and the new bit string is output to the outside of the neuron unit as an output signal. The output signal from such a neuron unit is sent to some other neuron unit in the neural network to be an input signal to that neuron unit, or is output outside the neural network and output from the neural network itself. Become a signal. FIG. 5 shows an image diagram of one neuron unit configuration.

【0006】ここで、このようなパルス密度型ニューラ
ルネットワークの出力値を考えてみる。まず、同じパル
ス密度を持つ信号であっても、そのパルス配置としては
様々なものがあり、例えばパルス長を10とした場合に
おいて値0.5の信号を考えると、 例1) 1010101010 例2) 1110010001 といったように異なり得る。このようにパルス配置が異
なるため、例えば、値0.5の信号と値0.3の信号と
の論理積を考えた場合でも、“1010101010”
と“1110000000”との論理積が“10100
00000”、即ち値0.2になるのに対し、“111
0010001”と“1110000000”との論理
積が“1110000000”、即ち値0.3となるよ
うに、演算結果も異なるものとなる。
Now consider the output value of such a pulse density type neural network. First, even if signals have the same pulse density, there are various pulse arrangements. Considering, for example, a signal having a value of 0.5 when the pulse length is 10, Example 1) 1010101010 Example 2) It can be different, such as 1110001001. Since the pulse arrangements are different in this way, for example, even when considering the logical product of a signal having a value of 0.5 and a signal having a value of 0.3, "1010101010"
And the logical product of "1110000000" is "10100"
00000 ", that is, the value becomes 0.2, while" 111 "
The calculation results are different so that the logical product of 001001 ”and“ 1110000000 ”becomes“ 1110000000 ”, that is, the value 0.3.

【0007】ここに、ニューラルネットワークの出力値
としては、カウンタにより出力信号中のパルス数を計数
することにより測定するようにしている。しかし、上述
したように、出力信号中のパルス数は入力信号や結合係
数のパルス配置の違いによって変動する。この変動の大
きさは、入力信号や教師信号や結合係数の値によって異
なる。これらの値が1.0や0.0であれば、パルス列
中の全てのビットが“1”又は“0”であるため、パル
ス配置は1通りに決まり変動しない。しかし、出力が
0.0と1.0との中間の値、例えば値0.5となるよ
うに学習させるような場合、出力信号中のパルス数の変
動量は大きくなる。このような場合にニューラルネット
ワークの出力値を知るには、同じ入力信号に対して何度
も出力値を測定し、出力パルス数の平均をとる必要があ
る。即ち、平均をとる前の出力値は毎回大きく変わるの
で、平均値をとらずに1回の出力値をそのままニューラ
ルネットワークの出力値にしてしまうと、信頼できる出
力値が得られないからである。
The output value of the neural network is measured by counting the number of pulses in the output signal with a counter. However, as described above, the number of pulses in the output signal varies depending on the input signal and the pulse arrangement of the coupling coefficient. The magnitude of this variation depends on the input signal, the teacher signal, and the value of the coupling coefficient. If these values are 1.0 or 0.0, all the bits in the pulse train are "1" or "0", and therefore the pulse arrangement is determined in one way and does not change. However, when learning is performed so that the output has an intermediate value between 0.0 and 1.0, for example, a value of 0.5, the fluctuation amount of the number of pulses in the output signal becomes large. In such a case, in order to know the output value of the neural network, it is necessary to measure the output value many times for the same input signal and take the average of the output pulse numbers. That is, the output value before taking the average changes greatly every time, so if the output value of one time is directly used as the output value of the neural network without taking the average value, a reliable output value cannot be obtained.

【0008】[0008]

【発明が解決しようとする課題】このように、提案例方
式のパルス密度型ニューラルネットワークによる場合、
出力パルス数の平均値を知るには同じ入力信号に対して
何度も出力値を測定しなければならず、処理時間がかか
るものとなっている。例えば、100回の出力の平均を
とる場合を想定し、各信号のパルス列の長さが127ビ
ットでニューラルネットワークが1ビット処理するのに
1/1000ミリ秒かかるとすると、100回の出力を
測定するのに12.7ミリ秒もかかってしまうことにな
る。これでは、高速応答が要求される用途に対しては適
用できないものとなってしまう。
As described above, in the case of the pulse density type neural network of the proposed example system,
In order to know the average value of the number of output pulses, it is necessary to measure the output value many times for the same input signal, which requires processing time. For example, assuming the case where the output of 100 times is averaged, assuming that the pulse train length of each signal is 127 bits and it takes 1/1000 milliseconds for the neural network to process 1 bit, the output of 100 times is measured. It will take 12.7 milliseconds to do. In this case, it cannot be applied to applications requiring high-speed response.

【0009】[0009]

【課題を解決するための手段】2値化された情報単位に
よる信号列を入力信号として受取って所定の演算処理を
し2値化された情報単位による信号列を出力信号として
出力する複数個の信号処理ユニットを結合させて入力層
から出力層まで階層型にニューラルネットワークを形成
した信号処理装置において、前記信号処理ユニットの内
の一部又は全部のユニットに対して自己のユニットの出
力信号中で2値の内の特定の情報単位の数を計数する計
数手段を設け、複数個の前記計数手段からの出力値を加
算する加算手段を設けた。
A plurality of signal sequences each of which receives a signal sequence of binarized information units as an input signal, performs a predetermined arithmetic processing, and outputs a signal sequence of the binarized information units as an output signal. In a signal processing device in which a signal processing unit is combined to form a hierarchical neural network from an input layer to an output layer, in the output signal of its own unit with respect to some or all of the signal processing units. The counting means for counting the number of specific information units of the two values is provided, and the adding means for adding the output values from the plurality of counting means is provided.

【0010】[0010]

【作用】ニューラルネットワークの出力パルス数の平均
値を知るには、ニューラルネットワークの出力を多重と
してそれらの多重平均をとればよい。即ち、出力層の複
数の信号処理ユニットの出力値として計数手段によって
2値の内の特定の情報単位を計数し、加算手段によって
それらの加算値を知ることにより多重平均を求めること
ができ、平均をとるための測定回数が減り高速応答可能
となる。
In order to know the average value of the number of output pulses of the neural network, the outputs of the neural network may be multiplexed and the multiple average thereof may be taken. That is, as the output value of the plurality of signal processing units in the output layer, the counting means counts a specific information unit of the two values, and the adding means knows the added values, so that a multiple average can be obtained. This reduces the number of measurements required to obtain high-speed response.

【0011】[0011]

【実施例】本発明の第一の実施例を図1に基づいて説明
する。まず、本実施例のニューラルネットワーク1は入
力層、第1中間層、第2中間層及び出力層からなる4層
の階層型ニューラルネットワークとして構成されてい
る。ここに、例えば、入力層のニューロン(信号処理ユ
ニット)2は1個、第1,2中間層のニューロン(信号
処理ユニット)3は10個ずつとされ、さらに、出力層
のニューロン(信号処理ユニット)4も10個とされて
いる。入力層のニューロン2は第1中間層のニューロン
3と相互に結合されている。また、第1,2中間層中の
各ニューロン3は接続状態を省略して示すが、相互に網
状に結合されている。第2中間層の各ニューロン3と出
力層の各ニューロン4との間も、接続状態を省略して示
すが、相互に網状に結合されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of the present invention will be described with reference to FIG. First, the neural network 1 according to this embodiment is configured as a four-layer hierarchical neural network including an input layer, a first intermediate layer, a second intermediate layer, and an output layer. Here, for example, the number of neurons (signal processing unit) 2 in the input layer is 1, the number of neurons (signal processing unit) 3 in the first and second intermediate layers is 10 each, and the neurons (signal processing unit) in the output layer are further provided. ) 4 is also set to 10. The neuron 2 in the input layer is connected to the neuron 3 in the first intermediate layer. Further, the connection states of the neurons 3 in the first and second intermediate layers are omitted, but they are connected to each other in a mesh shape. Although the connection state between the neurons 3 of the second intermediate layer and the neurons 4 of the output layer is also omitted, they are connected to each other in a mesh shape.

【0012】しかして、出力層の各ニューロン4の出力
側には各々カウンタ(計数手段)5が個別に設けられて
いる。これらのカウンタ5は各ニューロン4が出力する
出力信号中のパルス数(2値化表現による特定の情報単
位、例えば“1”の数)を計数するものである。これら
のカウンタ5の出力は加算回路(加算手段)6に入力さ
れ、合計算出に供される。
Therefore, a counter (counting means) 5 is individually provided on the output side of each neuron 4 in the output layer. These counters 5 count the number of pulses (a specific information unit represented by a binarized representation, eg, the number of “1”) in the output signal output from each neuron 4. The outputs of these counters 5 are input to an adder circuit (adding means) 6 and used for total calculation.

【0013】このような構成のニューラルネットワーク
1において、入力信号として値0.9を与え、出力層の
各ニューロン4全てに同じ教師信号として値0.5を与
え、150回学習させた。各信号の長さ(パルス列長)
は127ビットとした。このような学習の後で、入力信
号として値0.9を与えてフォワードプロセスのみを1
00回実行し、各回毎に、カウンタ5で計数した値を加
算する加算回路6からの出力をパルス列長127及び出
力層のニューロン4の数10で割った値(多重平均値)
を算出して記録したところ、100個のデータの標準偏
差は0.0137となったものである。
In the neural network 1 having such a configuration, a value of 0.9 is given as an input signal and a value of 0.5 is given as the same teacher signal to all the neurons 4 in the output layer, and learning is performed 150 times. Length of each signal (pulse train length)
Is 127 bits. After such learning, only the forward process is set to 1 by giving the value 0.9 as the input signal.
A value obtained by dividing the output from the adder circuit 6 that executes 00 times and adds the value counted by the counter 5 for each time by the pulse train length 127 and the number 10 of the neurons 4 in the output layer (multiple average value)
Was calculated and recorded, and the standard deviation of 100 data was 0.0137.

【0014】ちなみに、比較例として、図1に示す構成
のニューラルネットワーク1に代えて、図2に示すよう
に、出力層のニューロン4aを1個とし、これに対応さ
せて1個のカウンタ5aを設けたニューラルネットワー
ク1aを形成し、出力層のニューロン4aから出力され
るパルス数をカウンタ5aで計数するようにした。この
ような構成において、上記の場合と同様に、ニューラル
ネットワーク1aに入力信号として値0.9を与え、出
力層のニューロン4aには教師信号として値0.5を与
えて、150回学習させた。この場合も、各信号は12
7ビット長とした。学習終了後、入力信号として値0.
9を与えてフォワードプロセスのみを10回実行し、各
回毎の出力をカウンタ5aの積算計数により足し合わせ
た後、実行回数10及びパルス列長127で割って、1
0回の出力信号値の平均値を算出した。このようなフォ
ワードプロセス10回の実行による平均値の算出動作を
100回繰返し、毎回の値を記録した。このようにして
得られた100個のデータの標準偏差は0.0140と
なったものである。
By the way, as a comparative example, instead of the neural network 1 having the configuration shown in FIG. 1, as shown in FIG. 2, there is one neuron 4a in the output layer, and one counter 5a corresponding to this is provided. The provided neural network 1a is formed, and the number of pulses output from the neuron 4a in the output layer is counted by the counter 5a. In such a configuration, similarly to the above case, the value 0.9 is given to the neural network 1a as an input signal, and the value 0.5 is given to the neuron 4a in the output layer as a teacher signal, and the learning is performed 150 times. . Again, each signal is 12
It has a 7-bit length. After learning, the value 0.
9 is given and only the forward process is executed 10 times, and the output for each time is added by the integrated count of the counter 5a, then divided by the number of execution times 10 and the pulse train length 127 to obtain 1
The average value of the output signal values of 0 times was calculated. The operation of calculating the average value by executing the forward process 10 times was repeated 100 times, and the value of each time was recorded. The standard deviation of the 100 data thus obtained is 0.0140.

【0015】よって、本実施例をこの比較例と対比させ
てみると、標準偏差は比較例の標準偏差とほぼ等しいこ
とが分かる。従って、出力層のニューロン4を10個と
して対応するカウンタ5を設けることにより、1回のフ
ォワードプロセスの実行毎に、出力層のニューロン4a
が1個の場合における10回のフォワードプロセスの実
行に相当する精度で、ニューラルネットワーク1の出力
が得られるものとなり、パルス数の平均をとるために必
要な測定回数が減るものとなって、高速応答が要求され
る分野にも適応可能となる。
Therefore, when this embodiment is compared with this comparative example, it is found that the standard deviation is almost equal to the standard deviation of the comparative example. Therefore, by providing 10 neurons 4 in the output layer and providing the corresponding counters 5, each time the forward process is executed, the neurons 4a in the output layer 4a are executed.
When the number is one, the output of the neural network 1 can be obtained with an accuracy equivalent to the execution of the forward process 10 times, and the number of measurements required for averaging the number of pulses is reduced. It can also be applied to fields where a response is required.

【0016】つまり、一般論として考えれば、ニューラ
ルネットワークの出力を多重として、それらの多重出力
間の平均をとるようにすれば、信頼できる精度で、高速
にて平均値を得ることができるといえる。即ち、出力層
のニューロンの数を増やし、1つのニューロンの出力の
代わりに、これらの2つ以上の出力層のニューロンの出
力同士の平均値を使うようにすることによって、平均を
とるのに必要な測定回数を減すことができる。例えば出
力層のニューロンが1個であるニューラルネットワーク
に、ある値の出力信号を出力するように学習させる代わ
りに、出力層のニューロンを10個に増やし、これらの
10個のニューロンが全て増やす前と同じ値の出力信号
を出すように学習させ、これらの10個のニューロンに
よる出力信号の値の平均値をニューラルネットワークの
出力とする。このようにすることによって、例えば、1
個のニューロンの100回の出力の平均をとる代わり
に、10個のニューロンの出力の平均値の10回の平均
をとればよいものとなるので、出力値を測定するのに要
する時間は出力層のニューロン数の比率、即ち、1/1
0となる。
In other words, in general terms, if the outputs of the neural network are multiplexed and the average between the multiple outputs is taken, it can be said that the average value can be obtained at high speed with reliable accuracy. . That is, it is necessary to take an average by increasing the number of neurons in the output layer and using the average value of the outputs of the neurons in these two or more output layers instead of the output of one neuron. The number of measurements required can be reduced. For example, instead of letting a neural network with one neuron in the output layer learn to output an output signal of a certain value, the number of neurons in the output layer is increased to 10 and all of these 10 neurons are increased. Learning is performed so that output signals of the same value are output, and the average value of the output signal values of these 10 neurons is used as the output of the neural network. By doing this, for example, 1
Instead of taking the average of the output of 100 neurons, the average of the output of 10 neurons should be taken 10 times. Therefore, the time required to measure the output value is the output layer. Ratio of the number of neurons of, ie, 1/1
It becomes 0.

【0017】つづいて、本発明の第二の実施例を図3に
より説明する。前記実施例で示した部分と同一部分は同
一符号を用いて示す。基本的には、前記実施例と同様で
あるが、本実施例では出力層の10個のニューロン4が
グループA,Bとして5個ずつに2分され、このグルー
プA,Bに対応させて2つの加算回路6A,6Bを設け
た点で異なる。即ち、加算回路6A,6Bにはグループ
A,Bに対応するカウンタ5が接続されており、各々の
グループA,Bに属する計数値のみを加算するように構
成されている。
Next, a second embodiment of the present invention will be described with reference to FIG. The same parts as those shown in the above-mentioned embodiment are designated by the same reference numerals. Basically, this is the same as the above-described embodiment, but in this embodiment, 10 neurons 4 in the output layer are divided into 5 groups A and B, and each group is divided into 5 groups. The difference is that two adder circuits 6A and 6B are provided. That is, the counters 5 corresponding to the groups A and B are connected to the adder circuits 6A and 6B, and are configured to add only the count values belonging to the respective groups A and B.

【0018】このような構成において、ニューラルネッ
トワーク1に入力信号として値0.9を与え、出力層の
ニューロン4に関して、グループAに属するものに対し
ては教師信号として値0.7を与える一方、グループB
に属するものに対しては教師信号として値0.3を与
え、150回学習をした。この場合も、各信号長は12
7ビットとした。このような学習終了後に、入力信号と
して値0.9を与えてフォワードプロセスのみを100
回実行し、各回毎に、加算回路6A,6Bからの出力を
パルス列長127及び出力層の各グループのニューロン
数5で割った値を、2つの加算回路6A,6Bについて
算出し記録した。このようにして得られたグループAの
ニューロン4に関する100個のデータの標準偏差は
0.0144となり、グループBのニューロン4に関す
る100個のデータの標準偏差は0.0148となった
ものである。
In such a configuration, the neural network 1 is given a value of 0.9 as an input signal, and the neurons 4 of the output layer are given a value of 0.7 as a teacher signal for those belonging to the group A, while Group B
A value of 0.3 was given as a teacher signal to the ones belonging to and learning was performed 150 times. Also in this case, each signal length is 12
7 bits. After such learning is completed, the value 0.9 is given as an input signal and only the forward process is performed by 100.
Each time, the output from the adder circuits 6A and 6B was divided by the pulse train length 127 and the number of neurons 5 in each group of the output layer, and a value was calculated and recorded for the two adder circuits 6A and 6B. The standard deviation of 100 pieces of data on the neurons 4 of the group A thus obtained is 0.0144, and the standard deviation of 100 pieces of data on the neurons 4 of the group B is 0.0148.

【0019】ちなみに、本実施例に対する比較例とし
て、図3に示す構成のニューラルネットワーク1に代え
て、図4に示すように、出力層に2個のニューロン4
a,4bを設けて2つのグループに分け、これに対応さ
せて2個のカウンタ5a,5bを設けたニューラルネッ
トワーク1aを形成し、出力層のニューロン4a,4b
から出力されるパルス数を各々カウンタ5a,5bで別
個に計数するようにした。このような構成において、上
記の場合と同様に、ニューラルネットワーク1aに入力
信号として値0.9を与え、出力層のニューロン4aに
は教師信号として値0.5を与える一方、ニューロン4
bには教師信号として値0.3を与えて、150回学習
させた。この場合も、各信号は127ビット長とした。
学習終了後、入力信号として値0.9を与えてフォワー
ドプロセスのみを5回実行し、各回毎の出力をカウンタ
5a,5bの積算計数により足し合わせた後、実行回数
5及びパルス列長127で割って、各々のニューロン4
a,4bの5回の出力信号値の平均値を算出した。この
ようなフォワードプロセス5回の実行による平均値の算
出動作を100回繰返し、毎回の値を記録した。このよ
うにして得られた100個のデータの標準偏差は、ニュ
ーロン4aについては0.0152、ニューロン4bに
ついては0.0153となったものである。
Incidentally, as a comparative example to this embodiment, instead of the neural network 1 having the configuration shown in FIG. 3, as shown in FIG. 4, two neurons 4 are provided in the output layer.
a, 4b are provided and divided into two groups, and a neural network 1a provided with two counters 5a, 5b corresponding to this is formed, and neurons 4a, 4b in the output layer are formed.
The number of pulses output from each of the counters 5a and 5b is separately counted. In such a configuration, similarly to the above case, the value 0.9 is given to the neural network 1a as an input signal, and the value 0.5 is given to the neuron 4a in the output layer as a teacher signal, while the neuron 4a
A value of 0.3 was given as a teacher signal to b, and learning was performed 150 times. Also in this case, each signal has a length of 127 bits.
After learning, the value 0.9 is given as an input signal, only the forward process is executed 5 times, and the output for each time is added by the integrated counts of the counters 5a and 5b, and then divided by the execution count 5 and the pulse train length 127. And each neuron 4
The average value of the output signal values of a and 4b five times was calculated. The operation of calculating the average value by executing the forward process 5 times was repeated 100 times, and the value of each time was recorded. The standard deviation of 100 data thus obtained is 0.0152 for the neuron 4a and 0.0153 for the neuron 4b.

【0020】よって、本実施例の場合もこの比較例と対
比させてみると、標準偏差は比較例の標準偏差とほぼ等
しいことが分かる。従って、出力層のニューロン数を5
倍にすることによって、1回のフォワードプロセスの実
行毎に、出力層のニューロン数が2個の場合における5
回のフォワードプロセスの実行に相当する精度で、ニュ
ーラルネットワーク1の出力が得られるものとなり、パ
ルス数の平均をとるために必要な測定回数が減るものと
なって、高速応答が要求される分野にも適応可能とな
る。
Therefore, in the case of the present embodiment as well, when compared with this comparative example, it is found that the standard deviation is almost equal to the standard deviation of the comparative example. Therefore, the number of neurons in the output layer is 5
By doubling, the number of neurons in the output layer is 5 for each execution of the forward process.
The output of the neural network 1 can be obtained with the accuracy equivalent to the execution of the forward process once, and the number of measurements required for averaging the number of pulses is reduced, which is suitable for fields requiring high-speed response. Will also be applicable.

【0021】[0021]

【発明の効果】本発明は、上述したように、ニューラル
ネットワークの出力パルス数の平均値を知るには、ニュ
ーラルネットワークの出力を多重としてそれらの多重平
均をとればよい点に着目し、信号処理ユニットの内の一
部又は全部のユニットに対して自己のユニットの出力信
号中で2値の内の特定の情報単位の数を計数する計数手
段を設け、複数個の前記計数手段からの出力値を加算す
る加算手段を設けて、多重加算平均値方式によって平均
値を算出するようにしたので、平均値を算出するために
必要な測定回数が減り、高速応答が要求される分野にも
適応可能となる。
As described above, according to the present invention, in order to know the average value of the number of output pulses of the neural network, it is necessary to take the outputs of the neural network as multiple outputs and take the multiple averages thereof. For some or all of the units, counting means for counting the number of specific information units of the binary in the output signal of its own unit is provided, and the output values from the plurality of counting means Since the addition means for adding is added and the average value is calculated by the multiple addition average value method, the number of measurements required to calculate the average value is reduced, and it can be applied to fields requiring high-speed response. Becomes

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第一の実施例を示すブロック図であ
る。
FIG. 1 is a block diagram showing a first embodiment of the present invention.

【図2】比較例を示すブロック図である。FIG. 2 is a block diagram showing a comparative example.

【図3】本発明の第二の実施例を示すブロック図であ
る。
FIG. 3 is a block diagram showing a second embodiment of the present invention.

【図4】比較例を示すブロック図である。FIG. 4 is a block diagram showing a comparative example.

【図5】パルス密度型ニューロン素子構成をイメージ的
に示す説明図である。
FIG. 5 is an explanatory diagram conceptually showing a pulse density type neuron element configuration.

【符号の説明】[Explanation of symbols]

1 ニューラルネットワーク 2〜4 信号処理ユニット 5 計数手段 6,6A,6B 加算手段 1 Neural network 2-4 Signal processing unit 5 Counting means 6, 6A, 6B Addition means

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 2値化された情報単位による信号列を入
力信号として受取って所定の演算処理をし2値化された
情報単位による信号列を出力信号として出力する複数個
の信号処理ユニットを結合させて入力層から出力層まで
階層型にニューラルネットワークを形成した信号処理装
置において、前記信号処理ユニットの内の一部又は全部
のユニットに対して自己のユニットの出力信号中で2値
の内の特定の情報単位の数を計数する計数手段を設け、
複数個の前記計数手段からの出力値を加算する加算手段
を設けたことを特徴とする信号処理装置。
1. A plurality of signal processing units for receiving a signal string of binarized information units as an input signal, performing a predetermined arithmetic processing, and outputting a signal string of binarized information units as an output signal. In a signal processing device in which a neural network is formed in a hierarchical manner from an input layer to an output layer by combining, a part of all of the signal processing units or all of the units have a binary value in an output signal of its own unit. Is provided with counting means for counting the number of specific information units of
A signal processing device comprising an adding means for adding output values from a plurality of the counting means.
JP4282587A 1992-10-21 1992-10-21 Signal processor Pending JPH06131320A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4282587A JPH06131320A (en) 1992-10-21 1992-10-21 Signal processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4282587A JPH06131320A (en) 1992-10-21 1992-10-21 Signal processor

Publications (1)

Publication Number Publication Date
JPH06131320A true JPH06131320A (en) 1994-05-13

Family

ID=17654446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4282587A Pending JPH06131320A (en) 1992-10-21 1992-10-21 Signal processor

Country Status (1)

Country Link
JP (1) JPH06131320A (en)

Similar Documents

Publication Publication Date Title
Yingwei et al. A sequential learning scheme for function approximation using minimal radial basis function neural networks
Adleman et al. Inductive inference and unsolvability
KR20190099927A (en) The method of performing deep neural network learning and apparatus thereof
JPH0713950A (en) Artificial neuron and its usage method
US5122982A (en) Carry generation method and apparatus
US5710867A (en) Method for parallel processing of fuzzy logic inference rules and corresponding circuit architecture with fuzzy inputs and outputs
EP0444878A2 (en) Neural network
JPH06131320A (en) Signal processor
JPH07210534A (en) Neural network
EP0567983B1 (en) Learning type waveform recognizer
JPH024944B2 (en)
KR940004425A (en) Self-learning multilayer neural network and learning method
JP3101742B2 (en) Minimum detector
JP3616401B2 (en) Waveform signal equalization method and apparatus
JPS59161782A (en) Pattern matching method
JPH06243273A (en) Learning system for neural network
Hoffmann On computational limitations of neural network architectures
JPH07210542A (en) Neuron circuit
SU830390A1 (en) Device for detecting errors in parallel n-digit code with constant weigth
JP3417574B2 (en) Neuron element for fuzzy logic operation
SU1128263A1 (en) Device for calculating boolean derivatives
JP3106321B2 (en) Maximum value detector
SU1686437A1 (en) Conveying device for calculating sums of products
JPH06124274A (en) Signal processor
JPH08139613A (en) Code coincidence detecting system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees