JP2020112934A - Moving body, moving body control method, and computer program - Google Patents

Moving body, moving body control method, and computer program Download PDF

Info

Publication number
JP2020112934A
JP2020112934A JP2019001957A JP2019001957A JP2020112934A JP 2020112934 A JP2020112934 A JP 2020112934A JP 2019001957 A JP2019001957 A JP 2019001957A JP 2019001957 A JP2019001957 A JP 2019001957A JP 2020112934 A JP2020112934 A JP 2020112934A
Authority
JP
Japan
Prior art keywords
recognition
image
avoidance
moving body
traveling direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019001957A
Other languages
Japanese (ja)
Inventor
智幸 伊豆
Tomoyuki Izu
智幸 伊豆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Attraclab Co Ltd
Eams Robotics Co Ltd
Eams Lab Co Ltd
Original Assignee
Attraclab Co Ltd
Eams Robotics Co Ltd
Eams Lab Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Attraclab Co Ltd, Eams Robotics Co Ltd, Eams Lab Co Ltd filed Critical Attraclab Co Ltd
Priority to JP2019001957A priority Critical patent/JP2020112934A/en
Publication of JP2020112934A publication Critical patent/JP2020112934A/en
Pending legal-status Critical Current

Links

Abstract

To provide a moving body, a moving body control method, and a computer program which can quickly recognize an avoidance object for which the execution of an avoidance operation is required, in a direction of movement to execute the avoidance operation.SOLUTION: The moving body includes: image acquisition means which photographs in a prescribed direction relating to a direction of movement of the moving body to capture an image; recognition means which recognizes an avoidance object in the image; and avoiding means which executes an avoidance operation on the basis of a recognition result of the recognition means. The recognition means is configured to execute overall recognition of taking the entire image as a recognition object and partial recognition of taking a part of the image in the direction of movement of the moving body or a lower part of the image in the direction of movement.SELECTED DRAWING: Figure 7

Description

本発明は、障害物などの回避対象を検知する移動体、移動体の制御方法及びコンピュータプログラムに関する。 The present invention relates to a moving body that detects an avoidance target such as an obstacle, a method for controlling the moving body, and a computer program.

従来、予め経路の近傍に配置したマーカーを検出しつつ、自動的に無人車両を走行させる技術が提案されている(例えば、特許文献1)。また、このような無人車両において、外部を撮影し、画像中に人間を認識した場合に、停止するなどの回避動作を行う技術が実施されている。 Conventionally, a technique has been proposed in which an unmanned vehicle is automatically driven while detecting a marker arranged in the vicinity of a route in advance (for example, Patent Document 1). In addition, in such an unmanned vehicle, a technique of performing an avoidance operation such as stopping when the outside is photographed and a person is recognized in the image is performed.

特許第5046310号公報Japanese Patent No. 5046310

無人車両にとって、他の車両や人間等は衝突を回避する必要がある対象(以下、「回避対象」という。)である。しかし、画像中に人間を認識しても、無人車両の経路の外側であれば、回避行動は必要がない。また、無人車両の経路に人間が存在する場合であっても、無人車両からの距離が遠い場合には、画像における人間の大きさが小さく、人間として認識されない場合がある。 For an unmanned vehicle, another vehicle, a human being, or the like is an object that needs to avoid a collision (hereinafter referred to as an "avoidance object"). However, even if a person is recognized in the image, avoidance action is not necessary if it is outside the route of the unmanned vehicle. Even if a person is present in the route of the unmanned vehicle, if the distance from the unmanned vehicle is long, the size of the person in the image may be small and the person may not be recognized as a person.

本発明はかかる問題の解決を試みたものであり、進行方向に関連して、回避動作を実施する必要がある回避対象を迅速に認識し、回避動作を実施することができる移動体、移動体の制御方法及びコンピュータプログラムを提供することを目的とする。 The present invention has attempted to solve such a problem, and a moving body and a moving body capable of promptly recognizing an avoidance target that needs to perform an avoidance operation and performing the avoidance operation in relation to a traveling direction. It is an object of the present invention to provide a control method and a computer program.

第一の発明は、進行方向に関連する所定の方向を撮影し、画像を取得する画像取得手段と、前記画像において、回避対象を認識する認識手段と、前記認識手段の認識結果に基づいて、回避動作を実施する回避手段と、を有し、前記認識手段は、前記画像の全体を前記認識の対象とする全体認識と、前記画像における前記進行方向または前記進行方向の下方の部分を対象とする部分認識を実施するように構成されている、移動体である。 The first invention, by capturing a predetermined direction related to the traveling direction, an image acquisition unit that acquires an image, a recognition unit that recognizes an avoidance target in the image, and a recognition result of the recognition unit, Avoiding means for performing an avoiding operation, wherein the recognizing means targets the entire recognition of the entire image as a target of the recognition, and the target in the traveling direction or a portion below the traveling direction in the image. The moving object is configured to perform partial recognition.

第一の発明の構成によれば、認識手段は、全体認識と部分認識とを実施することができるから、全体認識において回避対象を認識した場合に回避動作を実施し、部分認識において回避対象を認識した場合においても回避動作を実施することができる。ここで、部分認識は、全体認識のすべての部分を対象とするのではなく、進行方向またはその下方の部分を対象とする。このため、最も短い場合には、一度の全体認識と、一度の部分認識によって、適切な回避動作を実施することができる。特に、認識手段がニューラルネットワークを利用する場合には、全体認識と特定の方向の画像を対象とする部分認識の併用によって、高精度かつ高速に回避対象を認識することができる。これにより、進行方向に関連して、回避動作を実施する必要がある回避対象を迅速に認識し、回避動作を実施することができる。 According to the configuration of the first invention, the recognizing unit can perform the overall recognition and the partial recognition. Therefore, when the avoidance target is recognized in the overall recognition, the avoidance operation is performed and the avoidance target is detected in the partial recognition. Even when it is recognized, the avoidance operation can be performed. Here, the partial recognition does not target all the parts of the overall recognition, but a part in the traveling direction or a part below the moving direction. For this reason, in the shortest case, an appropriate avoidance operation can be performed by performing the entire recognition once and the partial recognition once. In particular, when the recognizing means uses a neural network, the avoidance target can be recognized with high accuracy and high speed by using both the overall recognition and the partial recognition targeting an image in a specific direction. Accordingly, it is possible to quickly recognize the avoidance target that needs to perform the avoidance operation in relation to the traveling direction, and to implement the avoidance operation.

第二の発明は、第一の発明の構成において、前記回避手段は、前記認識手段によって認識した前記回避対象が所定条件を満たす場合に前記回避動作を実施するように構成されている、移動体である。 A second invention is the moving body according to the configuration of the first invention, wherein the avoidance means is configured to perform the avoidance operation when the avoidance target recognized by the recognition means satisfies a predetermined condition. Is.

第二の発明の構成によれば、回避手段は、取得した画像中に回避対象が認識された場合に常に回避動作を実施するのではなく、所定条件を満たす場合にのみ回避動作を実施する。例えば、進行方向とはまったく乖離した位置に回避対象を認識した場合には、回避動作を実施しないなど、不必要な回避動作を回避することができる。 According to the configuration of the second invention, the avoidance unit does not always perform the avoidance operation when the avoidance target is recognized in the acquired image, but performs the avoidance operation only when the predetermined condition is satisfied. For example, when the avoidance target is recognized at a position that is completely deviated from the traveling direction, it is possible to avoid an unnecessary avoidance action such as not performing the avoidance action.

第三の発明は、第二の発明の構成において、前記回避手段は、前記全体認識の結果及び/または前記部分認識の結果を参照し、前記移動体と前記回避対象との距離が、所定の距離範囲であるという前記所定条件を満たす場合に、前記回避動作を実施するように構成されている、移動体である。 In a third aspect based on the configuration of the second aspect, the avoidance means refers to the result of the overall recognition and/or the result of the partial recognition, and a distance between the moving body and the avoidance target is a predetermined value. The moving body is configured to perform the avoiding operation when the predetermined condition of being in the distance range is satisfied.

第四の発明は、第二の発明の構成において、前記回避手段は、複数回の前記全体認識及び/または前記部分認識の結果を参照し、前記回避対象が前記進行方向または前記下方に接近していると判断したという前記所定条件を満たす場合に、前記回避動作を実施するように構成されている、移動体である。 In a fourth aspect based on the configuration of the second aspect, the avoidance means refers to a result of a plurality of times of the overall recognition and/or the partial recognition, and the avoidance target approaches the traveling direction or the downward direction. The moving body is configured to perform the avoiding operation when the predetermined condition that it is determined that the moving body is present is satisfied.

第五の発明は、第二の発明の構成において、前記回避手段は、前記部分認識の結果及び前記移動体の速度に基づいて、前記移動体が所定時間内に前記回避対象に関連する所定の位置に到達すると判断した場合に、前記回避動作を実施するように構成されている、移動体である。 A fifth aspect of the present invention is the configuration of the second aspect, wherein the avoidance means is configured such that, based on a result of the partial recognition and a speed of the moving body, the moving body is associated with the avoidance target within a predetermined time. The moving body is configured to perform the avoiding operation when it is determined that the position is reached.

第六の発明は、移動体が、前記移動体の進行方向に関連する所定の方向を撮影し、画像を取得する画像取得ステップと、前記画像において、回避対象を認識する認識ステップと、前記認識ステップにおける認識結果に基づいて、回避動作を実施する回避ステップと、を実施し、前記認識ステップにおいて、前記画像の全体を前記認識の対象とする全体認識ステップと、前記画像における前記移動体の進行方向または進行方向の下方の部分を対象とする部分認識ステップを実施する、移動体の制御方法である。 A sixth invention is an image acquisition step in which a moving body captures an image by capturing a predetermined direction related to a traveling direction of the moving body, a recognition step of recognizing an avoidance target in the image, and the recognition. An avoidance step of performing an avoidance operation based on the recognition result in the step, and in the recognition step, a whole recognition step in which the whole of the image is a target of the recognition, and a progress of the moving body in the image A method for controlling a moving body, which carries out a partial recognition step targeting a lower portion in a traveling direction or a traveling direction.

第七の発明は、移動体を制御するコンピュータを、前記移動体の進行方向に関連する所定の方向を撮影し、画像を取得する画像取得手段、前記画像において、回避対象を認識する認識手段、前記認識手段の認識結果に基づいて、回避動作を実施する回避手段、として機能させるためのコンピュータプログラムであって、前記認識手段は、前記画像の全体を前記認識の対象とする全体認識と、前記画像における前記移動体の進行方向または進行方向の下方の部分を対象とする部分認識を実施するように構成されている、コンピュータプログラムである。 A seventh invention is a computer that controls a moving body, an image acquiring unit that captures an image by capturing a predetermined direction associated with the traveling direction of the moving body, a recognition unit that recognizes an avoidance target in the image, It is a computer program for functioning as an avoidance means for performing an avoidance operation based on a recognition result of the recognition means, wherein the recognition means is a whole recognition in which the whole of the image is the target of the recognition, The computer program is configured to carry out a partial recognition targeting a traveling direction of the moving body or a portion below the moving direction in the image.

本発明によれば、進行方向に関連して、回避動作を実施する必要がある回避対象を迅速に認識し、回避動作を実施することができる。 ADVANTAGE OF THE INVENTION According to this invention, the avoidance target which needs to perform an avoidance operation|movement can be recognized quickly regarding an advancing direction, and an avoidance operation can be implemented.

本発明の第一の実施形態に係る移動体の作用を示す概略図である。It is a schematic diagram showing an operation of a mobile concerning a first embodiment of the present invention. 移動体の構成を示す概略図である。It is a schematic diagram showing the composition of a mobile. 移動体の機能構成を示す概略図である。It is a schematic diagram showing the functional composition of a mobile. ニューラルネットワークを説明するための概念図である。It is a conceptual diagram for explaining a neural network. 機械学習を説明するための概略フローチャートである。It is a schematic flow chart for explaining machine learning. 全体認識を説明するための概念図である。It is a conceptual diagram for demonstrating the whole recognition. 全体画像と部分画像を説明するための概念図である。It is a conceptual diagram for demonstrating a whole image and a partial image. 部分認識を説明するための概念図である。It is a conceptual diagram for demonstrating partial recognition. 移動体の動作を示すフローチャートである。It is a flow chart which shows operation of a mobile. 第一の実施形態の変形例を示す図である。It is a figure which shows the modification of 1st embodiment. 移動体の動作を示すフローチャートである。It is a flow chart which shows operation of a mobile. 本発明の第二の実施形態に係る移動体の作用を示す概略図である。It is a schematic diagram showing an operation of a mobile concerning a second embodiment of the present invention. 移動体の作用を示す概略図である。It is the schematic which shows the effect|action of a mobile body. 移動体の構成を示す概略図である。It is a schematic diagram showing the composition of a mobile. 移動体の機能構成を示す概略図である。It is a schematic diagram showing the functional composition of a mobile. 移動体の動作を示すフローチャートである。It is a flow chart which shows operation of a mobile.

以下、本発明を実施するための形態(以下、実施形態)について詳細に説明する。以下の説明においては、同様の構成には同じ符号を付し、その説明を省略又は簡略する。なお、当業者が適宜実施できる構成については説明を省略し、本発明の基本的な構成についてのみ説明する。本発明の骨子は、移動体が人工知能を用いて回避対象を認識するについて、取得した画像全体について実施する認識処理(全体認識)と、画像の一部について実施する認識処理(部分認識)を併用し、人工知能による認識処理の高精度化及び高速化を図るものである。 Hereinafter, modes for carrying out the present invention (hereinafter, embodiments) will be described in detail. In the following description, the same components are designated by the same reference numerals, and the description thereof will be omitted or simplified. It should be noted that description of configurations that can be appropriately performed by those skilled in the art will be omitted, and only the basic configuration of the present invention will be described. The essence of the present invention is that when a moving body recognizes an avoidance target using artificial intelligence, it performs recognition processing (entire recognition) performed on the entire acquired image and recognition processing (partial recognition) performed on a part of the image. Together, they are intended to improve the accuracy and speed of recognition processing by artificial intelligence.

<第一の実施形態>
図1に示す無人車両1(以下、「無人機1」という。)は、移動体の一例である。無人機1は、予定の経路(以下、「予定経路」という。)を自律移動可能であり、無人機1を制御する操縦装置(「プロポ」とも呼ばれる。)からの無線信号による指示で動作を実施するようになっている。なお、本実施形態とは異なり、移動体は無人車両などの無人移動体に限らず、例えば、人間が搭乗して操縦する有人の重機などの車両や飛行体など、有人の移動体であってもよい。
<First embodiment>
The unmanned vehicle 1 (hereinafter, referred to as "unmanned aerial vehicle 1") illustrated in FIG. 1 is an example of a moving body. The unmanned aerial vehicle 1 is capable of autonomous movement along a planned route (hereinafter referred to as “scheduled route”), and operates by a radio signal from a control device (also called “propo”) that controls the unmanned aerial vehicle 1. It is supposed to be implemented. Note that, unlike the present embodiment, the moving body is not limited to an unmanned moving body such as an unmanned vehicle, but may be a manned moving body such as a vehicle or an air vehicle such as a manned heavy machine operated by a human being. Good.

無人機1は、畑で使用されるトラクターであるが、大学の建物100の前に位置する道路102で試験中である。無人機1は、道路102上を矢印X1方向に進行するから、道路102上や近傍に人間や他の車両等の障害物が存在しない場合には、無人機1が衝突する可能性はない。これに対して、道路102の上であって、所定の距離範囲内に人間が存在する場合や、道路102の上でなくても、道路102の近傍にいる人間が存在する場合には、衝突する可能性があるから、これを回避するようになっている。本明細書において、人間や他の車両等、無人機1が回避するべき対象を「回避対象」という。以下、「回避対象」は人間であるとして説明する。無人機1が進行する方向が進行方向である。本実施形態において、上空の方向ではなくて、道路102などの予定経路を中心とする方向が、進行方向に関連する所定の方向である。 Unmanned aerial vehicle 1, a tractor used in the field, is being tested on road 102 in front of university building 100. Since the unmanned aerial vehicle 1 travels on the road 102 in the direction of the arrow X1, there is no possibility of the unmanned aerial vehicle 1 colliding when there are no obstacles such as humans or other vehicles on or near the road 102. On the other hand, if there is a person on the road 102 within a predetermined distance range, or if there is a person who is near the road 102 without being on the road 102, a collision occurs. There is a possibility of doing so, so it is designed to avoid this. In the present specification, a target to be avoided by the unmanned aerial vehicle 1, such as a human being or another vehicle, is referred to as an “avoidance target”. Hereinafter, it is assumed that the “avoidance target” is a human. The traveling direction of the drone 1 is the traveling direction. In the present embodiment, the predetermined direction related to the traveling direction is not the direction of the sky but the direction centered on the planned route such as the road 102.

図2に示すように、無人機1は、車両本体10を有する。車両本体10には、タイヤが配置されている。車両本体10にはモーターが配置されており、後輪がモーターの回転によって回転することによって、無人機1は走行可能になっている。無人機1の進行方向は、前輪が回動することによって実施可能になっている。 As shown in FIG. 2, the drone 1 has a vehicle body 10. Tires are arranged in the vehicle body 10. A motor is arranged in the vehicle body 10, and the unmanned aerial vehicle 1 can run by rotating the rear wheels by the rotation of the motor. The traveling direction of the unmanned aerial vehicle 1 can be implemented by rotating the front wheels.

車両本体10には、無人機1の各部を制御するコンピュータ、自律走行装置、無線通信装置、GPS(Global Positioning System)を利用した測位装置、慣性センサー、気圧センサー、無人機1の各部に電力を供給するためのバッテリー等が格納されている。また、車両本体10には、無線通信用のアンテナ12、及び、航法衛星からの測位用電波を受信するためのアンテナ14が配置されている。 In the vehicle body 10, electric power is supplied to a computer that controls each part of the unmanned aerial vehicle 1, an autonomous traveling device, a wireless communication device, a positioning device that uses a GPS (Global Positioning System), an inertial sensor, a barometric sensor, and each part of the unmanned aerial vehicle 1. The battery etc. for supplying are stored. Further, the vehicle body 10 is provided with an antenna 12 for wireless communication and an antenna 14 for receiving positioning radio waves from a navigation satellite.

また、車両本体10には、前方を撮影して画像を取得するためのカメラ16が配置されている。 Further, the vehicle body 10 is provided with a camera 16 for photographing the front and acquiring an image.

図3は、無人機1の機能構成を示す図である。無人機1は、CPU(Central Processing Unit)50、記憶部52、無線通信部54、衛星測位部56、慣性センサー部58、駆動制御部60、画像処理部62、及び、電源部64を有する。 FIG. 3 is a diagram showing a functional configuration of the unmanned aerial vehicle 1. The unmanned aerial vehicle 1 includes a CPU (Central Processing Unit) 50, a storage unit 52, a wireless communication unit 54, a satellite positioning unit 56, an inertial sensor unit 58, a drive control unit 60, an image processing unit 62, and a power supply unit 64.

無人機1は、無線通信部54によって、外部と通信可能になっている。無人機1は、無線通信部54によって、ユーザーが操作する操縦装置(プロポ)70から、発進等の指示を受信する。 The unmanned aerial vehicle 1 can communicate with the outside through the wireless communication unit 54. The unmanned aerial vehicle 1 receives, via the wireless communication unit 54, an instruction such as starting from a control device (propo) 70 operated by a user.

無人機1は、衛星測位部56によって、無人機1自体の位置を測定することができる。衛星測位部56は、基本的に、4つ以上の航法衛星からの測位用電波を受信して無人機1の位置を計測する。衛星測位部56は、現在位置を測位する測位手段の一例である。慣性センサー部58は、例えば、加速度センサー及びジャイロセンサーによって、無人機1の動きを検知する。無人機1自体の位置情報は、無人機1の移動経路の決定及び自律移動のために使用するほか、カメラ16によって撮影した画像データと座標(位置)とを紐づけするために使用する。 The unmanned aerial vehicle 1 can measure the position of the unmanned aerial vehicle 1 itself by the satellite positioning unit 56. The satellite positioning unit 56 basically receives positioning radio waves from four or more navigation satellites and measures the position of the unmanned aerial vehicle 1. The satellite positioning unit 56 is an example of a positioning unit that measures the current position. The inertial sensor unit 58 detects the movement of the unmanned aerial vehicle 1 by using, for example, an acceleration sensor and a gyro sensor. The position information of the unmanned aerial vehicle 1 itself is used not only for determining the movement route of the unmanned aerial vehicle 1 and for autonomous movement, but also for associating the image data captured by the camera 16 with the coordinates (position).

駆動制御部60によって、タイヤの後輪に接続されたモーターの回転や、前輪の回動を制御し、走行速度や走行方向を制御するようになっている。 The drive control unit 60 controls the rotation of the motor connected to the rear wheels of the tire and the rotation of the front wheels to control the traveling speed and the traveling direction.

画像処理部62によって、無人機1はカメラ16(図2参照)を作動させて外部の画像を取得し、取得した撮影データを処理する。外部の画像は、主に、無人機1の進行方向の画像である。 The drone 1 operates the camera 16 (see FIG. 2) by the image processing unit 62 to acquire an external image, and processes the acquired shooting data. The external image is mainly an image in the traveling direction of the drone 1.

電源部64は、例えば、交換可能な可充電電池であり、無人機1の各部に電力を供給するようになっている。 The power supply unit 64 is, for example, a replaceable rechargeable battery, and supplies power to each unit of the drone 1.

記憶部52には、出発点から目標位置まで自律移動するための移動計画を示すデータ等の自律移動に必要な各種データ及びプログラムのほか、以下のプログラムが格納されている。 The storage unit 52 stores the following programs in addition to various data and programs necessary for autonomous movement such as data indicating a movement plan for autonomous movement from a starting point to a target position.

記憶部52には、画像撮影プログラム、画像認識プログラム、及び、回避プログラムが格納されている。CPU50と画像撮影プログラムは、画像取得手段の一例である。CPU50と画像認識プログラムは、認識手段の一例である。CPU50と回避プログラムは、回避手段の一例である。 An image capturing program, an image recognition program, and an avoidance program are stored in the storage unit 52. The CPU 50 and the image capturing program are an example of an image acquisition unit. The CPU 50 and the image recognition program are examples of recognition means. The CPU 50 and the avoidance program are an example of avoidance means.

無人機1は、画像撮影プログラムによって、無人機1が移動する予定経路を含む外部を撮影し、画像を取得する。カメラ16の光軸の方向は無人機1の進行方向である前方に固定する。 The unmanned aerial vehicle 1 captures an image by capturing an image of the outside including the planned route along which the unmanned aerial vehicle 1 travels according to the image capturing program. The direction of the optical axis of the camera 16 is fixed to the front, which is the traveling direction of the drone 1.

無人機1は、画像認識プログラムによって、画像において、回避対象を認識する。無人機1は、記憶部52に、例えば、図4に示すニューラルネットワークを記憶しており、回避対象の認識はニューラルネットワークによって行う。 The drone 1 recognizes the avoidance target in the image by the image recognition program. The unmanned aerial vehicle 1 stores, for example, the neural network shown in FIG. 4 in the storage unit 52, and the avoidance target is recognized by the neural network.

図4及び図5を参照して、学習方法(機械学習の工程)の概略を説明する。学習用データとして多数の画像データ(Image data)をコンピュータのニューラルネットワークのモデル(図4参照)に入力すると(図5のステップS1)、ニューラルネットワークのアルゴリズムによって学習が実施される(ステップS2)。学習用データは、様々な態様の人間が映ったデータである。 An outline of the learning method (machine learning process) will be described with reference to FIGS. 4 and 5. When a large number of image data (Image data) are input to the model of the neural network of the computer (see FIG. 4) as learning data (step S1 of FIG. 5), learning is performed by the algorithm of the neural network (step S2). The learning data is data in which various types of human beings are reflected.

ニューラルネットワークのモデルは、例えば、図4に概念的に示すニューラルネットワークである。なお、ニューラルネットワークやディープラーニングは周知なので、本明細書においては概説に留める。ニューラルネットワークは、入力層(Input layer)、1以上の隠れ層(Hidden layer)、及び、出力層(Output layer)で構成される。図4には、隠れ層は1つのみ示しているが、実際には、隠れ層は複数である。すなわち、本実施形態の学習は、多層のニューラルネットワーク(ディープニューラルネットワーク、Deep Neural Network)による機械学習(ディープラーニング)である。 The model of the neural network is, for example, the neural network conceptually shown in FIG. It should be noted that neural networks and deep learning are well known, and therefore will be only outlined in this specification. The neural network includes an input layer (Input layer), at least one hidden layer (Hidden layer), and an output layer (Output layer). Although only one hidden layer is shown in FIG. 4, there are actually a plurality of hidden layers. That is, the learning of the present embodiment is machine learning (deep learning) by a multilayer neural network (deep neural network, Deep Neural Network).

機械学習において、隠れ層及び出力層に入力する入力値の重みw1a等と、入力層、隠れ層及び出力層におけるバイアス(各層における閾値)B1等を調整することによって、出力層からの出力が正解に近づくようにしていく。学習の結果、学習結果データとして、重みとバイアスが調整されたニューラルネットワークが生成される(図5のステップS3)。この学習によって、画像中のオブジェクトが人間であることを精度よく認識するためのニューラルネットワークが生成される。記憶部52には、このようにして生成されたニューラルネットワークが記憶されている。 In machine learning, the output from the output layer is correct by adjusting the weights w1a of the input values input to the hidden layer and the output layer and the bias (threshold in each layer) B1 in the input layer, the hidden layer, and the output layer. To get closer to. As a result of learning, a neural network in which weights and biases are adjusted is generated as learning result data (step S3 in FIG. 5). By this learning, a neural network for accurately recognizing that the object in the image is a human is generated. The storage unit 52 stores the neural network generated in this way.

無人機1は、画像認識プログラムによって、取得した画像の全体(以下、「全体画像」という。)を認識の対象とする全体認識と、全体画像の特定の一部(以下、「部分画像」という。)を対象とする部分認識を実施するように構成されている。以下、全体認識と部分認識について説明する。 The unmanned aerial vehicle 1 uses the image recognition program to recognize the entire acquired image (hereinafter referred to as “entire image”) as a recognition target, and a specific part of the entire image (hereinafter referred to as “partial image”). .) is performed to perform partial recognition. The overall recognition and the partial recognition will be described below.

無人機1は、全体認識においても部分認識においても、横Pxsピクセル、縦Pysピクセル(図6等参照。)の分解能(以下、「認識分解能」という。)で画像認識を行う。Pxs及びPysは、例えば、Pxsは416ピクセルであり、Pysは208ピクセルである。すなわち、同一の認識分解能において、画像認識の対象を全体画像と部分画像に切り替える。 The unmanned aerial vehicle 1 performs image recognition with a resolution of horizontal Pxs pixels and vertical Pys pixels (see FIG. 6 and the like) (hereinafter, referred to as “recognition resolution”) in both overall recognition and partial recognition. Pxs and Pys are, for example, 416 pixels for Pxs and 208 pixels for Pys. That is, the target of image recognition is switched to the whole image and the partial image at the same recognition resolution.

全体認識は、全体画像を対象とする認識処理である。例えば、図6(a)に示すように、全体画像D1の画素は、横Px1ピクセル、縦Py1ピクセルであるとする。例えば、Px1は3960ピクセル、及びPy1は2048ピクセルである。全体認識は、全体画像D1を上述の認識分解能で処理する。PxsはPx1よりも小さく、PysはPy1よりも小さい。この結果、例えば、図6(b)において矩形で囲って示すように、無人機1の近傍に位置する人間200A及び200Bを認識することができる。ただし、相対的に無人機1の遠方に位置する人間200Cは、無人機1の予定経路上に位置するとしても、全体画像中の大きさが小さく、特徴が十分に画像に現れないので、人間として認識することができない。全体認識に要する時間をt1とする。t1は、例えば、30分の1秒(s)である。 Whole recognition is a recognition process for the whole image. For example, as shown in FIG. 6A, it is assumed that the pixels of the entire image D1 are horizontal Px1 pixels and vertical Py1 pixels. For example, Px1 is 3960 pixels and Py1 is 2048 pixels. In the overall recognition, the entire image D1 is processed with the above-described recognition resolution. Pxs is smaller than Px1, and Pys is smaller than Py1. As a result, humans 200A and 200B located near the unmanned aerial vehicle 1 can be recognized, for example, as shown by being surrounded by a rectangle in FIG. However, even if the human 200C located relatively far from the drone 1 is located on the planned route of the drone 1, since the size of the entire image is small and the features do not sufficiently appear in the image, Cannot be recognized as. The time required for overall recognition is t1. t1 is, for example, 1/30 second (s).

部分認識は、部分画像を対象とする認識処理である。部分画像は、全体画像のうち、無人機1の進行方向の部分に対応する画像である。図6(b)に、全体画像D1において、予定経路は線L1及びL2の間の位置として示し、無人機1の進行方向を矢印X1によって示す。 Partial recognition is a recognition process for partial images. The partial image is an image corresponding to a portion of the entire image in the traveling direction of the drone 1. In FIG. 6B, in the overall image D1, the planned route is shown as a position between the lines L1 and L2, and the traveling direction of the unmanned aerial vehicle 1 is shown by an arrow X1.

全体画像D1は、例えば、図7(a)に示すように、複数の部分画像D1a乃至D1yに区分することができる。複数の部分D1a乃至D1yのうち、無人機1の進行方向は、部分D1w、D1r及びD1mである。ただし、部分画像D1w及びD1rは、相対的に無人機1の近傍であり、それらの部分に人間が存在している場合には、全体認識において認識できるはずである。このため、部分認識の対象は、相対的に遠方である部分画像D1mとする。図7(b)に示すように、無人機1は、部分認識の対象として部分画像D1mを抽出する。 The whole image D1 can be divided into a plurality of partial images D1a to D1y, for example, as shown in FIG. Among the plurality of portions D1a to D1y, the traveling direction of the unmanned aerial vehicle 1 is the portions D1w, D1r, and D1m. However, the partial images D1w and D1r are relatively close to the unmanned aerial vehicle 1, and when a human is present in those parts, they should be recognizable in the overall recognition. Therefore, the target of partial recognition is the partial image D1m that is relatively far away. As shown in FIG. 7B, the drone 1 extracts the partial image D1m as a target of partial recognition.

図8(a)に示すように、無人機1は、部分認識によって、横Px2ピクセル、縦Py2ピクセルの部分画像D1mを上述の認識分解能で認識処理の対象とする。Px2はPx1よりも小さく、Py2はPy1よりも小さい。このため、全体画像においては、上述の認識分解能との関係において、相対的に小さく表示されていた人間200Cは、部分画像においては、全体画像におけるよりも大きく表示される。このため、上述の認識分解能であっても、図8(b)に示すように、無人機1は、人間200Cを認識することができる。部分認識に要する時間は、全体認識と同じく、t1である。無人機1は、画像認識プログラムによって、全体認識と部分認識を交互に実施する。 As shown in FIG. 8A, the unmanned aerial vehicle 1 targets the partial image D1m having the horizontal Px2 pixels and the vertical Py2 pixels by the partial recognition with the above-described recognition resolution. Px2 is smaller than Px1 and Py2 is smaller than Py1. Therefore, in the whole image, the human 200C displayed relatively small in relation to the recognition resolution described above is displayed larger in the partial image than in the whole image. Therefore, even with the above-described recognition resolution, the drone 1 can recognize the human 200C, as shown in FIG. 8B. The time required for partial recognition is t1 as in full recognition. The unmanned aerial vehicle 1 alternately executes the entire recognition and the partial recognition by the image recognition program.

仮に、全体画像中に、部分画像がk個存在するとすれば、すべての部分画像について、部分認識を実施すると、要する時間はt1×kである。しかし、無人機1の進行方向の部分に対応しない部分画像は、無人機1が将来通過しない部分の部分画像であるから、画像認識する必要がない。この点、本実施形態によれば、部分認識の対象となる部分画像を進行方向の部分画像に限定しているから、必要十分な画像認識を短時間で実施することができる。 If there are k partial images in the entire image, the time required for partial recognition of all partial images is t1×k. However, a partial image that does not correspond to a portion of the unmanned aerial vehicle 1 in the traveling direction is a partial image of a portion that the unmanned aerial vehicle 1 will not pass in the future, and thus it is not necessary to perform image recognition. In this respect, according to the present embodiment, the partial image to be partially recognized is limited to the partial image in the traveling direction, so that necessary and sufficient image recognition can be performed in a short time.

無人機1は、回避プログラムによって、認識プログラムによる認識結果に基づいて、回避動作を実施する。無人機1は、認識プログラムによって認識した回避対象が所定条件を満たす場合に回避動作を実施するように構成されている。 The unmanned aerial vehicle 1 performs the avoidance operation by the avoidance program based on the recognition result by the recognition program. The unmanned aerial vehicle 1 is configured to perform the avoidance operation when the avoidance target recognized by the recognition program satisfies a predetermined condition.

例えば、無人機1は、全体認識の結果を参照し、無人機1と回避対象との距離が、所定の距離範囲であるという所定条件を満たす場合に、回避動作を実施する。所定の距離範囲の距離は、例えば、5メートル(m)である。 For example, the unmanned aerial vehicle 1 refers to the result of the overall recognition, and when the distance between the unmanned aerial vehicle 1 and the avoidance target satisfies a predetermined condition of being within a predetermined distance range, performs the avoidance operation. The distance in the predetermined distance range is, for example, 5 meters (m).

無人機1は、また、部分認識の結果を参照し、無人機1と回避対象との距離が、所定の距離範囲内であるという所定条件を満たす場合に、回避動作を実施する。所定の距離範囲は、例えば、10メートル(m)である。 The unmanned aerial vehicle 1 also refers to the result of the partial recognition, and when the distance between the unmanned aerial vehicle 1 and the avoidance target satisfies a predetermined condition of being within a predetermined distance range, performs the avoidance operation. The predetermined distance range is, for example, 10 meters (m).

人間の身長は、例えば、140センチメートル(cm)乃至200センチメートル(cm)というように、所定の範囲であるから、無人機1は、例えば、画像に占める人間の縦方向の画素数によって、無人機1との概略の距離を判断することができる。 Since the human height is within a predetermined range, for example, 140 cm (cm) to 200 cm (cm), the drone 1 can be defined by, for example, the number of vertical pixels of the human in the image. The approximate distance from the unmanned aerial vehicle 1 can be determined.

以下、無人機1の動作を、図9のフローチャートを参照して説明する。無人機1は、操縦装置70から始動の信号を受信すると、発進し(図9のステップST1)、継続的に外部の画像を取得し(ステップST2)、現在位置を測位しつつ、所定の予定経路を進行する(ステップST3)。ステップST2は、画像取得ステップの一例である。 The operation of the unmanned aerial vehicle 1 will be described below with reference to the flowchart of FIG. When the drone 1 receives the start signal from the control device 70, it starts (step ST1 in FIG. 9), continuously acquires external images (step ST2), measures the current position, and performs a predetermined schedule. The route is advanced (step ST3). Step ST2 is an example of an image acquisition step.

無人機1は、ニューラルネットワークによって、全体画像を画像認識し(ステップST4)、画像中に回避対象を認識すると(ステップST5)、回避が必要な距離である回避距離であるか否かを判断し(ステップST6)、回避距離であれば、回避動作として、進行を停止する。 The unmanned aerial vehicle 1 image-recognizes the entire image by the neural network (step ST4), and when recognizing the avoidance target in the image (step ST5), determines whether or not the avoidance distance is a distance that needs to be avoided. (Step ST6) If the distance is the avoidance distance, the progress is stopped as the avoidance operation.

ステップST5の全体認識において回避対象を認識しない場合、あるいは、回避対象を認識してもステップST6において回避距離ではないと判断すると、ニューラルネットワークによって、進行方向の部分画像を画像認識し(ステップST7)、回避対象であると判断すると(ステップST8)、回避距離か否かを判断し(ステップST9)、回避距離であれば、回避動作として進行を停止する。これに対して、ステップST8の部分認識で回避対象を認識しない場合、あるいは、回避対象を認識しても回避が必要な距離ではないと判断すると、任務が完了したか否かを判断し(ステップST10)、任務が完了していないと判断すると、上述のステップST2乃至ステップST9を繰り返す。ステップST4及びステップST7は認識ステップの一例であり、ステップST4においては全体認識を実施し、ステップST7においては部分認識を実施している。 When the avoidance target is not recognized in the overall recognition in step ST5, or when it is determined that the avoidance target is not the avoidance distance in step ST6, a partial image in the traveling direction is image-recognized by the neural network (step ST7). When it is judged that the object is an avoidance target (step ST8), it is judged whether or not the distance is the avoidance distance (step ST9). On the other hand, if the avoidance target is not recognized in the partial recognition in step ST8, or if the avoidance target is recognized and it is determined that the distance does not require avoidance, it is determined whether the mission is completed (step ST10), if it is determined that the mission is not completed, the above steps ST2 to ST9 are repeated. Steps ST4 and ST7 are examples of recognition steps. In step ST4, whole recognition is performed, and in step ST7, partial recognition is performed.

<変形例>
次に、図10及び図11を参照して、第一の実施形態の変形例を説明する。変形例においては、無人機1は、回避プログラムによって、複数回の全体認識及び/または部分認識の結果を参照し、回避対象が進行方向に接近していると判断したという所定条件を満たす場合に、回避動作を実施するように構成されている。
<Modification>
Next, a modified example of the first embodiment will be described with reference to FIGS. 10 and 11. In a modification, the drone 1 refers to the results of the overall recognition and/or the partial recognition a plurality of times by the avoidance program, and when the predetermined condition that it is determined that the avoidance target is approaching in the traveling direction is satisfied. , Is configured to perform the avoidance operation.

例えば、図10(a)に示すように、全体画像D1の画像認識において、人間200A及び200B、及びそれらの位置を認識したと仮定する。人間200A及び200Bは、実際には、矢印Y1方向へ移動しているのであるが、一度の画像認識では、人間200A及び200Bの移動状態を判断することはできない。無人機1は、わずかに後の時間の全体画像D2の画像認識において、人間200A及び200B、及びそれらの位置を認識し、全体画像D1におけるそれらの位置と対比することで、人間200A及び200Bの移動状態を判断することができる。人間200Aは、矢印Y1方向へ移動しているから、無人機1の移動経路からは乖離する方向へ移動しており、無人機1が回避動作を実施する必要はない。これに対して、人間200Bは、矢印Y1方向へ移動しているから、無人機1の移動経路に接近する方向へ移動しており、無人機1が回避動作を実施する必要がある。 For example, as shown in FIG. 10A, it is assumed that the humans 200A and 200B and their positions are recognized in the image recognition of the entire image D1. Although the humans 200A and 200B are actually moving in the direction of the arrow Y1, it is not possible to determine the moving state of the humans 200A and 200B with a single image recognition. The drone 1 recognizes the humans 200A and 200B and their positions in the image recognition of the entire image D2 at a slightly later time, and compares them with their positions in the entire image D1 to detect the humans 200A and 200B. The movement state can be determined. Since the human 200A is moving in the arrow Y1 direction, it is moving in a direction away from the movement route of the unmanned aerial vehicle 1, and the unmanned aerial vehicle 1 does not need to perform the avoidance operation. On the other hand, since the human 200B is moving in the direction of the arrow Y1, it is moving in the direction approaching the movement route of the unmanned aerial vehicle 1, and the unmanned aerial vehicle 1 needs to perform the avoidance operation.

無人機1は、上述の処理を部分認識においても実施する。すなわち、全体画像D1を取得したときに、全体認識と部分認識を実施し、認識した人間の位置を記憶し、わずかに後の時間の全体画像D2を取得して、全体認識と部分認識を実施し、人間とその位置を認識し、人間の移動状態を判断する。 The unmanned aerial vehicle 1 also performs the above-described processing in partial recognition. That is, when the whole image D1 is acquired, the whole recognition and the partial recognition are performed, the position of the recognized human is stored, and the whole image D2 at a slightly later time is acquired to perform the whole recognition and the partial recognition. Then, by recognizing the human being and its position, the moving state of the human being is judged.

以下、変形例における無人機1の動作を、図11のフローチャートを参照して説明する。無人機1は、操縦装置70から始動の信号を受信すると、発進し(図11のステップST1)、継続的に外部の画像を取得し(ステップST2)、現在位置を測位しつつ、所定の予定経路を進行する(ステップST3)。 Hereinafter, the operation of the unmanned aerial vehicle 1 in the modified example will be described with reference to the flowchart in FIG. When the unmanned aerial vehicle 1 receives the start signal from the control device 70, the unmanned aerial vehicle 1 starts (step ST1 in FIG. 11), continuously acquires external images (step ST2), measures the current position, and performs a predetermined schedule. The route is advanced (step ST3).

無人機1は、ニューラルネットワークによって、全体画像を画像認識し(ステップST4)、画像中に回避対象を認識すると(ステップST5)、回避が必要な距離である回避距離であり、かつ、接近しているか否かを判断し(ステップST6A)、回避距離であり、かつ、接近していれば、回避動作として、進行を停止する。 The unmanned aerial vehicle 1 recognizes the entire image by the neural network (step ST4), recognizes the avoidance target in the image (step ST5), and determines that the avoidance distance is a distance that needs to be avoided and the approaching distance is approached. It is determined whether or not (step ST6A), and if the distance is the avoidance distance and the vehicle is approaching, the progress is stopped as an avoidance operation.

ステップST5の全体認識において回避対象を認識しない場合、あるいは、回避対象を認識してもステップST6Aにおいて回避距離ではない、あるいは、接近していないと判断すると、ニューラルネットワークによって、進行方向の部分画像を画像認識し(ステップST7)、回避対象であると判断すると(ステップST8)、回避距離であり、かつ、接近しているか否かを判断し(ステップST9A)、回避距離であり、かつ、接近していれば、回避動作として進行を停止する。これに対して、ステップST7の部分認識で回避対象を認識しない場合、あるいは、回避対象を認識しても回避距離ではない、あるいは、接近していないと判断すると、任務が完了したか否かを判断し(ステップST10)、任務が完了していないと判断すると、上述のステップST2乃至ステップST9Aを繰り返す。 If the avoidance target is not recognized in the overall recognition in step ST5, or if the avoidance target is recognized but is not the avoidance distance or is not approaching in step ST6A, a partial image in the traveling direction is detected by the neural network. When the image is recognized (step ST7) and it is determined that the target is an avoidance target (step ST8), it is determined whether the avoidance distance is approaching or not (step ST9A) and the avoidance distance is approaching. If so, the progress is stopped as an avoidance operation. On the other hand, if the avoidance target is not recognized in the partial recognition in step ST7, or if the avoidance target is recognized but the avoidance distance is not reached or it is determined that the avoidance target is not approaching, whether or not the mission is completed is determined. If it is determined (step ST10) that the mission is not completed, the above steps ST2 to ST9A are repeated.

<第二の実施形態>
次に、図12乃至図16を参照して、第二の実施形態について説明する。なお、第一の実施形態と共通する事項については説明を省略し、第一の実施形態と異なる部分を中心に説明する。
<Second embodiment>
Next, a second embodiment will be described with reference to FIGS. 12 to 16. It should be noted that description of items that are common to the first embodiment will be omitted, and the description will focus on the parts that differ from the first embodiment.

第二の実施形態においては、移動体は、無人飛行体20(以下、「無人機20」という。)である。無人機20は、主に人間に危害を加えることを予防するために、人間や移動中の自動車の上空の飛行を回避する必要がある。無人機20において、回避対象は、下方の人間や自動車である。そして、進行方向に関連する所定の方向は、進行方向の下方を中心とする方向であり、より詳細には、斜め下方を中心とする方向である。そして、無人機20は、将来飛行する領域の真下の画像を部分認識の対象とする。無人機20の基本的な機能及び制御プログラムは第一の実施形態と同様である。 In the second embodiment, the moving body is an unmanned aerial vehicle 20 (hereinafter referred to as "unmanned aerial vehicle 20"). The unmanned aerial vehicle 20 needs to avoid flying over humans and moving vehicles, primarily to prevent harm to humans. In the unmanned aerial vehicle 20, the avoidance target is a person or a car below. The predetermined direction related to the traveling direction is a direction centered on the lower side of the traveling direction, and more specifically, a direction centered on the diagonally lower side. Then, the unmanned aerial vehicle 20 targets the image directly below the region in which the aircraft will fly in the future for partial recognition. The basic functions and control program of the unmanned aerial vehicle 20 are the same as those in the first embodiment.

図12は、無人機20、及び、無人機20が飛行する領域を上空から見た概略平面図である。無人機20は、道路120A及び120B、建物122A乃至122Dが存在する領域において、矢印X2に示す予定経路を飛行する。道路120Aには、自動車130Aが走行しており、その走行経路は、無人機20の予定経路と交錯するものとする。 FIG. 12 is a schematic plan view of the unmanned aerial vehicle 20 and a region in which the unmanned aerial vehicle 20 flies, as seen from above. The unmanned aerial vehicle 20 flies along the planned route indicated by the arrow X2 in the region where the roads 120A and 120B and the buildings 122A to 122D exist. An automobile 130A is traveling on the road 120A, and its traveling route intersects with the planned route of the unmanned aerial vehicle 20.

図12に示すように、無人機20は、進行方向の下方の全体画像D10を継続的に取得する。そして、全体画像D10について全体認識を実施し、全体画像D10のうち、特定の部分画像D10mについて部分認識を実施する。部分画像D10mは、無人機20の飛行経路の真下の部分である。すなわち、無人機20は、将来、部分画像D10mに対応する領域の真上を飛行する。 As shown in FIG. 12, the unmanned aerial vehicle 20 continuously acquires the entire image D10 below the traveling direction. Then, the entire recognition is performed on the entire image D10, and the partial recognition is performed on a specific partial image D10m of the entire image D10. The partial image D10m is a portion directly below the flight path of the drone 20. That is, the unmanned aerial vehicle 20 will fly right above the region corresponding to the partial image D10m in the future.

図13に示すように、無人機20は、継続的に、全体画像D10乃至Dxを取得しており、全体認識を実施し、また、部分画像D10m乃至Dxmの部分認識を実施している。これにより、無人機20が将来飛行する領域の真下の部分について、部分認識を実施することができる。 As shown in FIG. 13, the unmanned aerial vehicle 20 continuously acquires the entire images D10 to Dx, performs the entire recognition, and performs the partial recognition of the partial images D10m to Dxm. As a result, partial recognition can be performed on the portion directly below the area where the unmanned aerial vehicle 20 will fly.

以下、無人機20の構成を説明する。図14に示すように、無人機20は、筐体22を有する。筐体22には、コンピュータで構成される自律飛行装置、無線通信装置、GPS(Global Positioning System)などの航法衛星システムからの測位用電波を利用する測位装置、及び、バッテリーが配置されている。自律飛行装置は、慣性センサー、電子コンパス、気圧センサーを含む。また、筐体22には、固定装置32を介して、カメラ34が配置されている。 Hereinafter, the configuration of the unmanned aerial vehicle 20 will be described. As shown in FIG. 14, the drone 20 has a housing 22. The housing 22 is provided with an autonomous flight device including a computer, a wireless communication device, a positioning device that uses positioning radio waves from a navigation satellite system such as GPS (Global Positioning System), and a battery. The autonomous flight device includes an inertial sensor, an electronic compass, and a barometric pressure sensor. Further, a camera 34 is arranged in the housing 22 via a fixing device 32.

無人機20は、カメラ34によって、外部の画像を取得する。固定装置32は、カメラ34による撮影画像のぶれを最小化し、かつ、カメラ34の光軸を任意の方向に制御することができる3軸の固定装置(いわゆる、ジンバル)である。 The unmanned aerial vehicle 20 acquires an external image with the camera 34. The fixing device 32 is a triaxial fixing device (so-called gimbal) that can minimize the blurring of the image captured by the camera 34 and control the optical axis of the camera 34 in any direction.

筐体22には、丸棒状のアーム24が接続されている。各アーム24にはモーター26が接続されており、各モーター26にはプロペラ28が接続されている。各モーター26は、直流モーター(ブラシレスDCモーター)である。各モーター26は、モータードライバー(図示せず)によって回転速度が制御される。モータードライバーは、自律飛行装置によってそれぞれ独立して制御される。各モーター26がそれぞれ独立して制御され、無人機1を上下水平方向の移動や空中での停止(ホバリング)及び姿勢制御を自在に行うことができるようになっている。アーム24には、また、保護枠30が配置されている。 A round bar-shaped arm 24 is connected to the housing 22. A motor 26 is connected to each arm 24, and a propeller 28 is connected to each motor 26. Each motor 26 is a DC motor (brushless DC motor). The rotation speed of each motor 26 is controlled by a motor driver (not shown). The motor drivers are independently controlled by the autonomous flight device. The motors 26 are independently controlled so that the drone 1 can be freely moved in the vertical and horizontal directions, stopped in the air (hovering), and controlled in attitude. A protection frame 30 is also arranged on the arm 24.

図15は、無人機20の機能構成を示す図である。無人機20は、CPU150、記憶部152、無線通信部154、衛星測位部156、慣性センサー部158、駆動制御部160、画像処理部162、及び、電源部164を有する。 FIG. 15 is a diagram showing a functional configuration of the unmanned aerial vehicle 20. The unmanned aerial vehicle 20 includes a CPU 150, a storage unit 152, a wireless communication unit 154, a satellite positioning unit 156, an inertial sensor unit 158, a drive control unit 160, an image processing unit 162, and a power supply unit 164.

無人機20は、無線通信部154によって、プロポ70と通信可能になっている。無人機20は、無線通信部154によって、プロポ70から、発進等の指示を受信する。 The unmanned aerial vehicle 20 can communicate with the radio 70 by the wireless communication unit 154. The wireless communication unit 154 of the unmanned aerial vehicle 20 receives an instruction such as a start from the transmitter 70.

無人機20は、衛星測位部156によって、無人機20自体の位置を測定することができる。衛星測位部156は、基本的に、4つ以上の航法衛星からの測位用電波を受信して無人機20の位置を計測する。衛星測位部156は、現在位置を測位する測位手段の一例である。慣性センサー部158は、加速度センサー及びジャイロセンサーからの出力に基づいて、無人機20の動きを検出する。無人機20自体の位置情報は、無人機20の移動経路の決定及び自律移動等のために使用する。 The unmanned aerial vehicle 20 can measure the position of the unmanned aerial vehicle 20 itself by the satellite positioning unit 156. The satellite positioning unit 156 basically receives positioning radio waves from four or more navigation satellites and measures the position of the unmanned aerial vehicle 20. The satellite positioning unit 156 is an example of a positioning unit that measures the current position. The inertial sensor unit 158 detects the movement of the unmanned aerial vehicle 20 based on the outputs from the acceleration sensor and the gyro sensor. The position information of the unmanned aerial vehicle 20 itself is used for determining the movement route of the unmanned aerial vehicle 20 and autonomous movement.

駆動制御部160によって、無人機20は各モーター26に接続されたプロペラ28の回転を制御し、上下水平移動や空中停止、傾きなどの姿勢を制御するようになっている。 The drive control unit 160 controls the unmanned aerial vehicle 20 to control the rotation of the propeller 28 connected to each motor 26, and to control the posture such as vertical and horizontal movement, air stop, and tilt.

画像処理部162によって、無人機1はカメラ34を作動させて外部の画像を取得し、取得した撮影データを処理する。 The drone 1 operates the camera 34 by the image processing unit 162 to acquire an external image, and processes the acquired shooting data.

電源部164は、例えば、交換可能な可充電電池であり、無人機20の各部に電力を供給するようになっている。 The power supply unit 164 is, for example, a replaceable rechargeable battery and supplies power to each unit of the unmanned aerial vehicle 20.

記憶部152には、出発点から目的位置まで自律移動するための移動計画を示すデータ等の自律移動に必要な各種データ及びプログラムのほか、第一の実施形態と同様に、画像撮影プログラム、画像認識プログラム、及び、回避プログラムが格納されている。 The storage unit 152 stores various data and programs necessary for autonomous movement, such as data indicating a movement plan for autonomous movement from a starting point to a destination position, an image capturing program, an image, as in the first embodiment. A recognition program and an avoidance program are stored.

以下、無人機20の動作を、図16のフローチャートを参照して説明する。無人機20は、プロポ70から始動の信号を受信すると、発進し(図16のステップST1)、継続的に進行方向の下方の部分を中心とする領域の画像を取得し(ステップST2A)、現在位置を測位しつつ、所定の予定経路を進行する(ステップST3)。 The operation of the unmanned aerial vehicle 20 will be described below with reference to the flowchart of FIG. When the unmanned aerial vehicle 20 receives the start signal from the transmitter 70, the unmanned aerial vehicle 20 starts to move (step ST1 in FIG. 16) and continuously acquires images of a region centered on a lower portion in the traveling direction (step ST2A). The vehicle moves along a predetermined planned route while positioning the position (step ST3).

無人機20は、ニューラルネットワークによって、全体画像を画像認識し(ステップST4)、画像中に回避対象を認識すると(ステップST5)、回避が必要な距離である回避距離であり、かつ、接近しているか否かを判断し(ステップST6A)、回避距離であり、かつ、接近していれば、回避動作として、例えば、進行を停止する。ここで、「進行の停止」とは、空中停止(ホバリング)である。 The unmanned aerial vehicle 20 recognizes the entire image by the neural network (step ST4), and when the avoidance target is recognized in the image (step ST5), the avoidance distance is a distance that needs to be avoided, and is approached. It is determined whether or not there is (step ST6A), and if it is the avoidance distance and is approaching, as the avoidance operation, for example, the progress is stopped. Here, the “stop of the progress” is an aerial stop (hovering).

ステップST5の全体認識において回避対象を認識しない場合、あるいは、回避対象を認識してもステップST6Aにおいて回避距離ではない、あるいは、接近していないと判断すると、ニューラルネットワークによって、進行方向の下方の部分画像を画像認識し(ステップST7)、回避対象であると判断すると(ステップST8)、回避距離であり、かつ、接近しているか否かを判断し(ステップST9A)、回避距離であり、かつ、接近していれば、回避動作として進行を停止する。これに対して、ステップST7の部分認識で回避対象を認識しない場合、あるいは、回避対象を認識しても回避距離ではない、あるいは、接近していないと判断すると、任務が完了したか否かを判断し(ステップST10)、任務が完了していないと判断すると、上述のステップST2乃至ステップST9Aを繰り返す。 If the avoidance target is not recognized in the overall recognition in step ST5, or if the avoidance target is recognized but is not within the avoidance distance or is not approaching in step ST6A, the neural network determines a lower portion in the traveling direction. When the image is recognized as an image (step ST7) and it is determined that it is an avoidance target (step ST8), it is an avoidance distance and it is determined whether or not it is approaching (step ST9A), an avoidance distance, and If it is approaching, the progress is stopped as an avoidance operation. On the other hand, if the avoidance target is not recognized in the partial recognition in step ST7, or if the avoidance target is recognized but the avoidance distance is not reached or it is determined that the avoidance target is not approaching, whether or not the mission is completed is determined. If it is determined (step ST10) that the mission is not completed, the above steps ST2 to ST9A are repeated.

なお、本発明は上述の各実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 It should be noted that the present invention is not limited to the above-described embodiments, and modifications, improvements, etc. within the scope of achieving the object of the present invention are included in the present invention.

1 無人車両(無人機)
10 車両本体
12 アンテナ
14 アンテナ
16 カメラ
20 無人飛行体(無人機)
22 筐体
34 カメラ
1 Unmanned vehicle (unmanned aerial vehicle)
10 vehicle body 12 antenna 14 antenna 16 camera 20 unmanned aerial vehicle (unmanned aerial vehicle)
22 housing 34 camera

Claims (7)

進行方向に関連する所定の方向を撮影し、画像を取得する画像取得手段と、
前記画像において、回避対象を認識する認識手段と、
前記認識手段の認識結果に基づいて、回避動作を実施する回避手段と、を有し、
前記認識手段は、前記画像の全体を前記認識の対象とする全体認識と、前記画像における前記進行方向または前記進行方向の下方の部分を対象とする部分認識を実施するように構成されている、移動体。
An image acquisition unit that captures an image by capturing a predetermined direction related to the traveling direction,
Recognition means for recognizing an avoidance target in the image,
And an avoidance unit that performs an avoidance operation based on the recognition result of the recognition unit,
The recognizing unit is configured to perform a total recognition targeting the entire image, and a partial recognition targeting the traveling direction or a portion below the traveling direction in the image, Mobile.
前記回避手段は、
前記認識手段によって認識した前記回避対象が所定条件を満たす場合に前記回避動作を実施するように構成されている、
請求項1に記載の移動体。
The avoidance means is
When the avoidance target recognized by the recognition means satisfies a predetermined condition, the avoidance operation is performed.
The moving body according to claim 1.
前記回避手段は、前記全体認識の結果及び/または前記部分認識の結果を参照し、前記移動体と前記回避対象との距離が、所定の距離範囲であるという前記所定条件を満たす場合に、前記回避動作を実施するように構成されている、請求項2に記載の移動体。 The avoidance means refers to the result of the overall recognition and/or the result of the partial recognition, and when the distance between the moving body and the avoidance target satisfies the predetermined condition of being a predetermined distance range, The moving body according to claim 2, which is configured to perform an avoidance operation. 前記回避手段は、複数回の前記全体認識及び/または前記部分認識の結果を参照し、前記回避対象が前記進行方向または前記下方に接近していると判断したという前記所定条件を満たす場合に、前記回避動作を実施するように構成されている、請求項2に記載の移動体。 The avoidance means refers to a result of the entire recognition and/or the partial recognition of a plurality of times, and when the predetermined condition that it is determined that the avoidance target approaches the traveling direction or the downward direction, The moving body according to claim 2, wherein the moving body is configured to perform the avoidance operation. 前記回避手段は、前記部分認識の結果及び前記移動体の速度に基づいて、前記移動体が所定時間内に前記回避対象に関連する所定の位置に到達すると判断した場合に、前記回避動作を実施するように構成されている、請求項2に記載の移動体。 The avoiding means performs the avoiding operation when it is determined that the moving body reaches a predetermined position related to the avoidance target within a predetermined time based on the result of the partial recognition and the speed of the moving body. The moving body according to claim 2, which is configured to: 移動体が、
前記移動体の進行方向に関連する所定の方向を撮影し、画像を取得する画像取得ステップと、
前記画像において、回避対象を認識する認識ステップと、
前記認識ステップにおける認識結果に基づいて、回避動作を実施する回避ステップと、を実施し、
前記認識ステップにおいて、前記画像の全体を前記認識の対象とする全体認識ステップと、前記画像における前記移動体の進行方向または進行方向の下方の部分を対象とする部分認識ステップを実施する、移動体の制御方法。
The moving body
An image capturing step of capturing an image by capturing a predetermined direction related to the traveling direction of the moving body,
A recognition step of recognizing an avoidance target in the image;
Based on the recognition result in the recognition step, performing an avoidance step of performing an avoidance operation,
In the recognition step, a moving body which carries out a whole recognition step of targeting the entire image as the recognition target and a partial recognition step of targeting a traveling direction of the moving body or a lower portion in the traveling direction of the moving body in the image, Control method.
移動体を制御するコンピュータを、
前記移動体の進行方向に関連する所定の方向を撮影し、画像を取得する画像取得手段、
前記画像において、回避対象を認識する認識手段、
前記認識手段の認識結果に基づいて、回避動作を実施する回避手段、
として機能させるためのコンピュータプログラムであって、
前記認識手段は、前記画像の全体を前記認識の対象とする全体認識と、前記画像における前記移動体の進行方向または進行方向の下方の部分を対象とする部分認識を実施するように構成されている、コンピュータプログラム。


A computer that controls the mobile
An image acquisition unit that captures an image by capturing a predetermined direction related to the traveling direction of the moving body,
Recognition means for recognizing an avoidance target in the image,
Avoidance means for performing an avoidance operation based on the recognition result of the recognition means,
A computer program for functioning as
The recognizing means is configured to perform a total recognition targeting the entire image, and a partial recognition targeting a traveling direction of the moving body or a lower portion in the traveling direction of the moving body in the image. Is a computer program.


JP2019001957A 2019-01-09 2019-01-09 Moving body, moving body control method, and computer program Pending JP2020112934A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019001957A JP2020112934A (en) 2019-01-09 2019-01-09 Moving body, moving body control method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019001957A JP2020112934A (en) 2019-01-09 2019-01-09 Moving body, moving body control method, and computer program

Publications (1)

Publication Number Publication Date
JP2020112934A true JP2020112934A (en) 2020-07-27

Family

ID=71667725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019001957A Pending JP2020112934A (en) 2019-01-09 2019-01-09 Moving body, moving body control method, and computer program

Country Status (1)

Country Link
JP (1) JP2020112934A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04303214A (en) * 1991-03-29 1992-10-27 Mazda Motor Corp Road structure recognizing device for moving vehicle
JPH0778258A (en) * 1993-09-08 1995-03-20 Sumitomo Electric Ind Ltd Object recognition device
JP2010079697A (en) * 2008-09-26 2010-04-08 Nissan Motor Co Ltd Obstacle avoiding device, obstacle avoiding method and self-propelling vehicle
JP2017146957A (en) * 2016-02-19 2017-08-24 トヨタ自動車株式会社 Augmenting layer-based object detection with deep convolutional neural networks
JP6324649B1 (en) * 2017-10-25 2018-05-16 楽天株式会社 Detection system, detection method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04303214A (en) * 1991-03-29 1992-10-27 Mazda Motor Corp Road structure recognizing device for moving vehicle
JPH0778258A (en) * 1993-09-08 1995-03-20 Sumitomo Electric Ind Ltd Object recognition device
JP2010079697A (en) * 2008-09-26 2010-04-08 Nissan Motor Co Ltd Obstacle avoiding device, obstacle avoiding method and self-propelling vehicle
JP2017146957A (en) * 2016-02-19 2017-08-24 トヨタ自動車株式会社 Augmenting layer-based object detection with deep convolutional neural networks
JP6324649B1 (en) * 2017-10-25 2018-05-16 楽天株式会社 Detection system, detection method, and program

Similar Documents

Publication Publication Date Title
US11604479B2 (en) Methods and system for vision-based landing
US20200344464A1 (en) Systems and Methods for Improving Performance of a Robotic Vehicle by Managing On-board Camera Defects
US20220206515A1 (en) Uav hardware architecture
CN110494360B (en) System and method for providing autonomous photography and photography
US20230365129A1 (en) Apparatus and methods for obstacle detection
US10447912B2 (en) Systems, methods, and devices for setting camera parameters
US11092975B2 (en) Control method, control device, and carrier system
US20190068829A1 (en) Systems and Methods for Improving Performance of a Robotic Vehicle by Managing On-board Camera Obstructions
US20170374277A1 (en) Image pickup apparatus, image pickup method, and recording medium for imaging plural subjects or a single subject
US20170313439A1 (en) Methods and syststems for obstruction detection during autonomous unmanned aerial vehicle landings
JP2021513714A (en) Aircraft smart landing
CN110268356B (en) Leading unmanned aerial vehicle&#39;s system
JP6390013B2 (en) Control method for small unmanned aerial vehicles
JP5990453B2 (en) Autonomous mobile robot
US10558218B2 (en) Vehicle surroundings monitoring apparatus, monitoring system, remote monitoring apparatus, and monitoring method
JP2023090817A (en) Flying body control device, flying body control method and program
WO2018103689A1 (en) Relative azimuth control method and apparatus for unmanned aerial vehicle
KR20180051996A (en) An unmanned aerialvehicles and method for pthotographing a subject using the same
JP2017056903A (en) Control system, control method and control program for unmanned flight body
JP7101799B2 (en) Monitoring system, management device, monitoring method, control program of management device
JP2017206072A (en) Flight control device and flight control method
KR20120036684A (en) An intelligent aviation robot using gps
US11525697B2 (en) Limited-sensor 3D localization system for mobile vehicle
JP2019191888A (en) Unmanned flying object, unmanned flying method and unmanned flying program
JP2020112934A (en) Moving body, moving body control method, and computer program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20200703

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220107

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231017