JP2011192215A - Device, method and program for inputting character - Google Patents

Device, method and program for inputting character Download PDF

Info

Publication number
JP2011192215A
JP2011192215A JP2010059956A JP2010059956A JP2011192215A JP 2011192215 A JP2011192215 A JP 2011192215A JP 2010059956 A JP2010059956 A JP 2010059956A JP 2010059956 A JP2010059956 A JP 2010059956A JP 2011192215 A JP2011192215 A JP 2011192215A
Authority
JP
Japan
Prior art keywords
key
image
display
enlarged
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010059956A
Other languages
Japanese (ja)
Other versions
JP2011192215A5 (en
Inventor
Tetsushi Wakasa
哲史 若狭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2010059956A priority Critical patent/JP2011192215A/en
Publication of JP2011192215A publication Critical patent/JP2011192215A/en
Publication of JP2011192215A5 publication Critical patent/JP2011192215A5/ja
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a character input device, or the like which can easily perform character input by making it difficult to generate any typing mistake. <P>SOLUTION: The character input device includes: a display part for displaying an image; an input detection part arranged to be overlapped with the display part, and for detecting the touch input of an operator; and a control part for making the display part display a software keyboard, and for, when it is detected by an input detection part that the image of one key of the software keyboard has been touched, performing enlargement key display to enlarge and display the image of one key and the image of at least one of keys in the periphery. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、表示部に表示されたソフトウェアキーボードを用いて文字の入力を行う文字入力装置、文字入力方法及び文字入力プログラムに関する。   The present invention relates to a character input device, a character input method, and a character input program for inputting characters using a software keyboard displayed on a display unit.

携帯電話機等の通信機器では、操作者の指示を入力する装置として、キーボードや、テンキー、ボタンを押下する入力装置以外の種々の入力装置がある。例えば、特許文献1には、文字表示領域を有する文字入力画面を表示手段に表示させ、複数文字を配置した仮想文字表をタッチパネルに対応付け、タッチパネルにタッチ入力された位置に対応する仮想文字表の文字を入力対象文字として文字表示領域に表示させる文字入力装置が記載されている。また、特許文献1に記載の文字入力装置は、タッチ入力が継続されている間に当該タッチ入力の位置に応じて、仮想文字表に対応する入力対象文字を切り替えて文字表示領域に表示させている。   In a communication device such as a cellular phone, there are various input devices other than an input device for pressing a keyboard, a numeric keypad, or a button as a device for inputting an operator's instruction. For example, in Patent Document 1, a character input screen having a character display area is displayed on a display unit, a virtual character table in which a plurality of characters are arranged is associated with a touch panel, and a virtual character table corresponding to a position touch-inputted on the touch panel A character input device that displays the character as an input target character in a character display area is described. Further, the character input device described in Patent Document 1 switches the input target character corresponding to the virtual character table and displays it in the character display area according to the position of the touch input while the touch input is continued. Yes.

特開2007−26349号公報JP 2007-26349 A

ところで、携帯電子機器としては、一般的なQWERTY配列のキーボードの画像を画像表示部に表示させ、画像表示部の前面に配置されたタッチパネルで所望のキーの画像をタッチすることで文字入力を行う、いわゆるソフトウェアキーボードを入力部として備えるものがある。   By the way, as a portable electronic device, an image of a general QWERTY keyboard is displayed on an image display unit, and characters are input by touching an image of a desired key on a touch panel arranged on the front surface of the image display unit. Some have a so-called software keyboard as an input unit.

しかしながら、携帯電子機器は、筐体のサイズによって画像表示面積が制約されるので、ソフトウェアキーボードを用いると、各ソフトウェアキーが小さくなってしまい、タイプミスし易く、文字入力がしづらいという問題があった。   However, since the display area of portable electronic devices is limited by the size of the housing, using a software keyboard causes the software keys to be small, making typing errors difficult to input characters. It was.

本発明は、上記に鑑みてなされたものであって、タイプミスを発生しにくくすることができ文字入力を容易にすることが可能な文字入力装置、文字入力方法及び文字入力プログラムを提供することを目的とする。   The present invention has been made in view of the above, and provides a character input device, a character input method, and a character input program that are less likely to cause typographical errors and can facilitate character input. With the goal.

上述した課題を解決し、目的を達成するために、本発明に係る文字入力装置は、画像を表示する表示部と、前記表示部に重畳して配置され、操作者のタッチ入力を検出する入力検出部と、前記表示部にソフトウェアキーボードを表示させ、前記入力検出部でソフトウェアキーボードの1つのキーの画像がタッチされたことを検出したら、当該1つのキーの画像及びその周囲のキーの内の少なくとも1つの画像を拡大して表示させる第1の拡大キー表示を行う制御部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, a character input device according to the present invention includes a display unit that displays an image, and an input that is arranged so as to overlap the display unit and detects an operator's touch input. When a software keyboard is displayed on the detection unit and the display unit, and it is detected that the image of one key of the software keyboard is touched by the input detection unit, the image of the one key and the surrounding keys And a control unit for performing a first enlargement key display for enlarging and displaying at least one image.

ここで、前記制御部は、前記入力検出部で前記1つのキーの画像がタッチされた状態が所定時間維持されたことを検出したら、前記第1の拡大キー表示を行うことが好ましい。   Here, it is preferable that the control unit performs the first enlarged key display when the input detection unit detects that the image of the one key is touched for a predetermined time.

また、前記制御部は、前記第1の拡大キー表示として前記1つのキーの画像及びその周囲の全てのキーの画像を拡大して表示させることが好ましい。   Moreover, it is preferable that the said control part expands and displays the image of said one key, and the image of all the keys of the circumference | surroundings as said 1st expansion key display.

また、前記制御部は、前記第1拡大キー表示として前記1つのキーの画像をその周囲のキーの画像よりも大きく表示させることが好ましい。   Moreover, it is preferable that the said control part displays the image of said one key larger than the image of the surrounding key as said 1st expansion key display.

また、前記制御部は、前記1つのキーの画像がタッチされてからの経過時間に応じて前記第1の拡大キー表示による画像を徐々に拡大することが好ましい。   Moreover, it is preferable that the said control part enlarges gradually the image by a said 1st expansion key display according to the elapsed time after the image of the said one key was touched.

また、前記制御部は、前記第1の拡大キー表示中に前記入力検出部でタッチされている位置が前記第1の拡大キー表示による画像の外に移動されたことを検出したら、前記第1の拡大キー表示を終了することが好ましい。   In addition, when the control unit detects that the position touched by the input detection unit during the display of the first enlargement key is moved outside the image by the first enlargement key display, It is preferable to end the enlargement key display.

また、前記制御部は、前記第1の拡大キー表示中に前記入力検出部で前記1つのキーの周囲のキーの内の何れかのキーの画像にタッチ位置が移動したことを検出したら、当該移動した先のキーを中心として前記第1の拡大キー表示を行うことが好ましい。   In addition, when the control unit detects that the touch position is moved to an image of any one of the keys around the one key by the input detection unit during the display of the first enlarged key, It is preferable that the first enlarged key display is performed around the moved key.

また、前記制御部は、前記移動した先のキーの画像がタッチされた状態が所定時間維持されたことを検出したら、当該移動した先のキーを中心として前記第1の拡大キー表示を行うことが好ましい。   In addition, when the control unit detects that the touched state of the image of the moved destination key is maintained for a predetermined time, the control unit performs the first enlarged key display centering on the moved destination key. Is preferred.

また、前記制御部は、前記第1の拡大キー表示中に前記入力検出部で前記1つのキーの画像がタッチされたまま、更に他のキーの画像がタッチされたことを検出したら、当該他のキーの画像及びその周囲のキーの画像を拡大して表示させる第2の拡大キー表示を行うことが好ましい。   In addition, when the control unit detects that the image of the one key is still touched by the input detection unit while the first enlarged key is displayed, the control unit detects that the other key image is touched. It is preferable to perform the second enlarged key display in which the image of the key and the image of the surrounding keys are enlarged and displayed.

また、前記制御部は、前記他のキーの画像がタッチされた状態が所定時間維持されたことを検出したら、前記第2の拡大キー表示を行うことが好ましい。   Further, it is preferable that the control unit performs the second enlarged key display when detecting that the touched state of the image of the other key is maintained for a predetermined time.

また、前記制御部は、前記第1の拡大キー表示と前記第2の拡大キー表示とが重なる場合には、前記第2の拡大キー表示を前記第1の拡大キー表示の上に重ねて表示させることが好ましい。   In addition, when the first enlarged key display and the second enlarged key display overlap each other, the control unit displays the second enlarged key display so as to overlap the first enlarged key display. It is preferable to make it.

また、前記制御部は、前記第1の拡大キー表示及び前記第2の他の拡大キー表示中に前記入力検出部でタッチ位置の移動を検出したら、前記第1の拡大キー表示と前記第2の拡大キー表示の内の移動された方のタッチによる拡大表示を他方の拡大表示の上に重ねて表示することが好ましい。   Further, when the input detection unit detects a movement of the touch position during the first enlarged key display and the second other enlarged key display, the control unit detects the first enlarged key display and the second enlarged key display. It is preferable to display the enlarged display by the touch of the moved one of the enlarged key displays superimposed on the other enlarged display.

また、前記入力検出部は、所定の閾値以下の押圧力によるタッチ及び前記閾値より強い押圧力によるタッチの少なくとも2段階のタッチを検出可能であり、前記制御部は、前記入力検出部で前記閾値より強い押圧力でタッチされたことを検出したら、当該タッチされたキーに対応する文字の入力を確定することが好ましい。   The input detection unit can detect at least two stages of a touch by a pressing force equal to or less than a predetermined threshold and a touch by a pressing force stronger than the threshold, and the control unit can detect the threshold by the input detection unit. When it is detected that the touch is performed with a stronger pressing force, it is preferable to confirm the input of the character corresponding to the touched key.

また、前記制御部は、前記入力検出部でキーの画像へのタッチが解消されたことを検出したら、当該タッチ解消の直前にタッチされていたキーに対応する文字の入力を確定することが好ましい。   In addition, when the control unit detects that the touch of the key image has been canceled by the input detection unit, it is preferable that the input of the character corresponding to the key touched immediately before the touch cancellation is confirmed. .

上述した課題を解決し、目的を達成するために、本発明に係る文字入力方法は、画像を表示する表示部と、前記表示部に重畳して配置され、操作者のタッチ入力を検出する入力検出部と、を備える文字入力装置で実行される方法であって、前記表示部にソフトウェアキーボードを表示させるステップと、前記入力検出部でソフトウェアキーボードの1つのキーの画像がタッチされたことを検出したら、当該1つのキーの画像及びその周囲のキーの内の少なくとも1つの画像を拡大して表示させる拡大キー表示を行うステップと、を含むことを特徴とする。   In order to solve the above-described problems and achieve the object, a character input method according to the present invention includes a display unit that displays an image, and an input that is arranged so as to overlap the display unit and detects an operator's touch input. A method executed by a character input device comprising: a detection unit; and a step of displaying a software keyboard on the display unit; and detecting that an image of one key of the software keyboard is touched by the input detection unit Then, an enlarged key display for enlarging and displaying at least one image of the image of the one key and the surrounding keys is included.

上述した課題を解決し、目的を達成するために、本発明に係る文字入力プログラムは、画像を表示する表示部と、前記表示部に重畳して配置され、操作者のタッチ入力を検出する入力検出部と、を備える文字入力装置で実行されるプログラムであって、前記表示部にソフトウェアキーボードを表示させるステップと、前記入力検出部でソフトウェアキーボードの1つのキーの画像がタッチされたことを検出したら、当該1つのキーの画像及びその周囲のキーの内の少なくとも1つの画像を拡大して表示させる拡大キー表示を行うステップと、を含むことを特徴とする。   In order to solve the above-described problems and achieve the object, a character input program according to the present invention includes a display unit that displays an image, and an input that is arranged so as to overlap the display unit and detects an operator's touch input. A program executed by a character input device comprising: a detecting unit; and a step of displaying a software keyboard on the display unit; and detecting that an image of one key of the software keyboard is touched by the input detecting unit Then, an enlarged key display for enlarging and displaying at least one image of the image of the one key and the surrounding keys is included.

本発明にかかる文字入力装置、文字入力方法及び文字入力プログラムは、タイプミスを発生しにくくすることができ文字入力を容易にすることが可能となるという効果を奏する。   The character input device, the character input method, and the character input program according to the present invention have an effect that it is possible to make it difficult to generate a typo and to facilitate character input.

図1は、携帯通信機器の外観を示す図である。FIG. 1 is a diagram illustrating an appearance of a mobile communication device. 図2は、携帯通信機器の一実施形態の機能の概略構成を示すブロック図である。FIG. 2 is a block diagram illustrating a schematic configuration of functions of an embodiment of the mobile communication device. 図3−1は、携帯通信機器の動作を説明するための説明図である。FIG. 3A is an explanatory diagram for explaining the operation of the mobile communication device. 図3−2は、携帯通信機器の動作を説明するための説明図である。FIG. 3-2 is an explanatory diagram for explaining the operation of the mobile communication device. 図3−3は、携帯通信機器の動作を説明するための説明図である。FIG. 3C is an explanatory diagram for explaining the operation of the mobile communication device. 図4は、携帯通信機器の動作を説明するための説明図である。FIG. 4 is an explanatory diagram for explaining the operation of the mobile communication device. 図5−1は、携帯通信機器の動作を説明するための説明図である。FIG. 5A is an explanatory diagram for explaining the operation of the mobile communication device. 図5−2は、携帯通信機器の動作を説明するための説明図である。FIG. 5B is an explanatory diagram for explaining the operation of the mobile communication device. 図6−1は、携帯通信機器の動作を説明するための説明図である。FIG. 6A is an explanatory diagram for explaining the operation of the mobile communication device. 図6−2は、携帯通信機器の動作を説明するための説明図である。FIG. 6B is an explanatory diagram for explaining the operation of the mobile communication device. 図7−1は、携帯通信機器の動作を説明するための説明図である。FIG. 7A is an explanatory diagram for explaining the operation of the mobile communication device. 図7−2は、携帯通信機器の動作を説明するための説明図である。FIG. 7-2 is an explanatory diagram for explaining the operation of the mobile communication device. 図7−3は、携帯通信機器の動作を説明するための説明図である。FIG. 7C is an explanatory diagram for explaining the operation of the mobile communication device. 図8は、携帯通信機器の処理動作の一例を示すフロー図である。FIG. 8 is a flowchart showing an example of the processing operation of the mobile communication device.

以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、文字入力装置として携帯通信機器、より具体的には、携帯電話機を例として説明するが、本発明の適用対象は携帯電話機に限定されるものではなく、例えば、PHS(Personal Handyphone System)、PDA、ポータブル及び車載ナビゲーション装置、ノートパソコン、ゲーム機、自動販売機、ATM等に対しても本発明は適用できる。   Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description. In addition, constituent elements in the following description include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range. In the following, a mobile communication device, more specifically a mobile phone, will be described as an example of a character input device. However, the application target of the present invention is not limited to a mobile phone. For example, PHS (Personal Handyphone System) ), PDA, portable and in-vehicle navigation devices, notebook computers, game machines, vending machines, ATMs, etc.

まず、図1を用いて携帯通信機器10の外観を説明する。ここで、図1は、携帯通信機器10の外観を示す図である。図1に示すように、携帯通信機器10は、筐体11を有し、携帯通信機器10を構成する各部は、筐体11に内蔵されている。また、筐体11の前面には、表示部33が配置され、表示部33の前面には入力部28が配置されている。また、筐体11の前面(表示部33が配置されている面)の長手方向における一方の端部にはマイク15が配置され、筐体11の前面の長手方向における他方の端部にはレシーバ16が配置されている。なお、図1に示す携帯通信機器10は、表示部33に後述する文字入力画面を表示させた状態であり、QWERTY配列のソフトウェアキーボードが表示される。   First, the external appearance of the mobile communication device 10 will be described with reference to FIG. Here, FIG. 1 is a diagram illustrating an appearance of the mobile communication device 10. As shown in FIG. 1, the mobile communication device 10 has a housing 11, and each part constituting the mobile communication device 10 is built in the housing 11. A display unit 33 is disposed on the front surface of the housing 11, and an input unit 28 is disposed on the front surface of the display unit 33. A microphone 15 is disposed at one end in the longitudinal direction of the front surface of the housing 11 (the surface on which the display unit 33 is disposed), and a receiver is disposed at the other end of the front surface of the housing 11 in the longitudinal direction. 16 is arranged. 1 is in a state where a character input screen (to be described later) is displayed on the display unit 33, and a software keyboard having a QWERTY layout is displayed.

次に、携帯通信機器の機能の概略構成を説明する。図2は、携帯通信機器の一実施形態の機能の概略構成を示すブロック図である。携帯通信機器10は、無線通信機能を備えた携帯電話機である。図2に示すように携帯通信機器10は、制御部22と、表示制御部23と、記憶部24と、通信部26と、入力部28と、音声処理部30と、ドライバIC32と、表示部33と、を有する。   Next, a schematic configuration of functions of the mobile communication device will be described. FIG. 2 is a block diagram illustrating a schematic configuration of functions of an embodiment of the mobile communication device. The mobile communication device 10 is a mobile phone having a wireless communication function. As shown in FIG. 2, the mobile communication device 10 includes a control unit 22, a display control unit 23, a storage unit 24, a communication unit 26, an input unit 28, an audio processing unit 30, a driver IC 32, and a display unit. 33.

制御部22は、携帯通信機器10の全体的な動作を統括的に制御する処理部、例えばCPU(Central Processing Unit)である。すなわち、携帯通信機器10の各種の処理が、入力部28の入力や携帯通信機器10の記憶部24に保存されるソフトウェアに応じて適切な手順で実行されるように、通信部26、表示部33等の動作を制御する。制御部22は、記憶部24に保存されているプログラム(例えば、オペレーティングシステムプログラム、アプリケーションプログラム等)に基づいて処理を実行する。また、制御部22は、複数のプログラム(アプリケーション、ソフトウェア)を並列で実行することができる。   The control unit 22 is a processing unit that centrally controls the overall operation of the mobile communication device 10, for example, a CPU (Central Processing Unit). That is, the communication unit 26, the display unit, and the like so that various processes of the mobile communication device 10 are executed in an appropriate procedure according to the input of the input unit 28 and the software stored in the storage unit 24 of the mobile communication device 10. The operation of 33 etc. is controlled. The control unit 22 executes processing based on a program (for example, an operating system program, application program, etc.) stored in the storage unit 24. The control unit 22 can execute a plurality of programs (applications, software) in parallel.

制御部22は、さらに、図2に示すように、マルチタッチ制御アプリケーション部22aと、フィードバック制御アプリケーション部22bと、キー拡大制御アプリケーション部22cとを有する。なお、図2では、説明のために、各ソフトウェア(アプリケーションプログラム)が個別に設けられているように示しているが、制御部22、記憶部24等の間で、信号のやり取り、データの処理が行われているものであり、各部が目視上別々に設けられているわけではない。また、図2には、ソフトウェアとして文字の入力に関するソフトウェアを示しているが、上述したように、図2に示すソフトウェア以外にも種々のソフトウェアを備えている。また、各アプリケーション部は、記憶部24に記憶されているプログラムを読み出して処理することで、実行される。以下、各部の構成を説明する。   As shown in FIG. 2, the control unit 22 further includes a multi-touch control application unit 22a, a feedback control application unit 22b, and a key expansion control application unit 22c. In FIG. 2, for the sake of explanation, each software (application program) is shown as being provided individually. However, signal exchange and data processing are performed between the control unit 22, the storage unit 24, and the like. However, each part is not visually provided separately. FIG. 2 shows software related to character input as software, but as described above, various software other than the software shown in FIG. 2 is provided. Each application unit is executed by reading and processing a program stored in the storage unit 24. Hereinafter, the configuration of each unit will be described.

マルチタッチ制御アプリケーション部22aは、操作者の指が触れた座標情報を入力部28から受け取り、記憶部24内に格納されている座標・キー対応データベースを参照して、ソフトウェアキーボードのうち、操作者が入力しようとしたソフトウェアキー(以下単に「キー」ともいう。)を判別する。また、マルチタッチ制御アプリケーション部22aは、ソフトウェアキーに触れる指が新たに増えた場合は入力部28から渡される情報からそれを判別し、指の触れた順番に応じて管理し、各指の識別情報を表示制御部23に送る。   The multi-touch control application unit 22a receives the coordinate information touched by the operator's finger from the input unit 28, refers to the coordinate / key correspondence database stored in the storage unit 24, and selects the operator from the software keyboard. Determines the software key (hereinafter also simply referred to as “key”) that the user wishes to input. In addition, when the number of fingers touching the software key newly increases, the multi-touch control application unit 22a discriminates it from the information passed from the input unit 28, manages it according to the order of touching the finger, and identifies each finger. Information is sent to the display control unit 23.

フィードバック制御アプリケーション部22bは、マルチタッチ制御アプリケーション部22aから指の触れたソフトウェアキー情報を受け取り、そのソフトウェアキーに対応するフィードバック表示の情報を表示制御部23に送る。   The feedback control application unit 22b receives the software key information touched by the finger from the multi-touch control application unit 22a, and sends feedback display information corresponding to the software key to the display control unit 23.

キー拡大制御アプリケーション部22cは、マルチタッチ制御アプリケーション部22aから各指の触れた座標情報を受け取り、記憶部24に格納された一定の条件(タイマー値、拡大表示に該当するキーか否かを判定する拡大該当キー判定情報等)に応じて、ソフトウェアキー拡大情報を表示制御部23に送り、記憶部24内の座標・キー対応データベースを更新する。   The key enlargement control application unit 22c receives coordinate information touched by each finger from the multi-touch control application unit 22a, and determines whether or not the key corresponds to a certain condition (timer value, enlarged display) stored in the storage unit 24. Software key enlargement information is sent to the display control unit 23 according to the enlargement corresponding key determination information to be updated, and the coordinate / key correspondence database in the storage unit 24 is updated.

表示制御部23は、制御部22から送られる各種の条件と画像情報(画像の素材)に基づいて画像を生成し、ドライバIC32に出力する。なお、本実施形態では、表示制御部23を、制御部22とは別の制御部として設けたが、本発明はこれに限定されず表示制御部23を制御部22と一体にして設けてもよいし、制御部22の一部として設けてもよい。   The display control unit 23 generates an image based on various conditions and image information (image material) sent from the control unit 22 and outputs the image to the driver IC 32. In this embodiment, the display control unit 23 is provided as a control unit different from the control unit 22, but the present invention is not limited to this, and the display control unit 23 may be provided integrally with the control unit 22. Alternatively, it may be provided as a part of the control unit 22.

記憶部24には、制御部22での処理に利用されるアプリケーションのプログラムやデータが保存されている。具体的には、マルチタッチ制御アプリケーション、フィードバック制御アプリケーション、キー拡大制御アプリケーション、文字入力アプリケーション等のプログラムが保存されている。また、データとしては、文字変換のための辞書データ、アドレス帳データ、入力部28の座標とソフトウェアキーとを対応づける座標・キー対応データベース等が記憶されている。   The storage unit 24 stores application programs and data used for processing in the control unit 22. Specifically, programs such as a multi-touch control application, a feedback control application, a key expansion control application, and a character input application are stored. As data, dictionary data for character conversion, address book data, a coordinate / key correspondence database for associating coordinates of the input unit 28 with software keys, and the like are stored.

通信部26は、アンテナ26aを有し、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA方式などによる無線信号回線を確立し、基地局との間で電話通信及び情報通信を行う。   The communication unit 26 includes an antenna 26a, establishes a radio signal line by a CDMA method or the like with a base station via a channel assigned by the base station, and performs telephone communication and information communication with the base station. .

入力部28は、表示部33の前面に重畳して配置されたタッチパネルであり、操作者が表面を触るとその接触を入力として検出する。なお、入力部28は、接触された位置や、その接触の強さ等を検出する。タッチパネルとしては、マトリクススイッチ、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式等種々の方式のタッチパネルを用いることができる。ここで、入力部28は、表示部33に電源キー、通話キー、数字キー、文字キー、方向キー、決定キー、発信キーなど、各種の機能が割り当てられたキーの画像を表示させた状態のときに表面が押された(表面に接触がある)ことを検出したら、押された位置(接触があった位置)を検出する。携帯通信機器10の制御部22は、入力部28が接触を検出した位置に対応するキーの操作が入力されたとして、その処理を行う。   The input unit 28 is a touch panel arranged so as to overlap the front surface of the display unit 33, and detects the contact as an input when the operator touches the surface. The input unit 28 detects the touched position, the strength of the contact, and the like. As the touch panel, various types of touch panels such as a matrix switch, a resistive film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method can be used. Here, the input unit 28 is in a state where an image of a key assigned with various functions such as a power key, a call key, a numeric key, a character key, a direction key, a determination key, and a call key is displayed on the display unit 33. If it is detected that the surface is sometimes pressed (contact is on the surface), the pressed position (position where the contact is made) is detected. The control unit 22 of the mobile communication device 10 performs the process on the assumption that the key operation corresponding to the position where the input unit 28 detected contact is input.

音声処理部30は、マイク15に入力される音声信号やレシーバ16から出力される音声信号の処理を実行する。   The audio processing unit 30 executes processing of an audio signal input to the microphone 15 and an audio signal output from the receiver 16.

ドライバIC32は、表示制御部23から供給される映像データに応じた映像、画像データに応じた信号を生成して表示部33に出力する。表示部33は、液晶ディスプレイ(LCD、Liquid Crystal Display)や、有機EL(Organic Electro-Luminescence)パネルなどで構成された表示パネルを備える。表示部33は、ドライバIC32から送られてきた信号に基づいた画像を表示させる。   The driver IC 32 generates a video corresponding to the video data supplied from the display control unit 23 and a signal corresponding to the image data, and outputs the video to the display unit 33. The display unit 33 includes a display panel configured by a liquid crystal display (LCD), an organic EL (Organic Electro-Luminescence) panel, or the like. The display unit 33 displays an image based on the signal sent from the driver IC 32.

次に、図3−1〜図7−3を用いて、携帯通信機器10の動作、具体的には、文字入力が行われる際に画面上に表示させるソフトウェアキーボードの画像及び文字入力の検出について説明する。ここで、図3−1〜図7−3は、それぞれ、表示部33に表示されるソフトウェアキーボードの画像の一例を示す説明図である。   Next, referring to FIGS. 3-1 to 7-3, the operation of the mobile communication device 10, specifically, the detection of the software keyboard image and character input to be displayed on the screen when character input is performed. explain. Here, FIGS. 3-1 to 7-3 are explanatory diagrams illustrating examples of images of the software keyboard displayed on the display unit 33, respectively.

まず、携帯通信機器10は、文字入力が行われる際に、つまり、文字入力機能が起動されたら、図3−1に示すように、表示部33に、QWERTY配列のソフトウェアキーボードの画像100を表示させる。   First, when character input is performed, that is, when the character input function is activated, the mobile communication device 10 displays a QWERTY-arranged software keyboard image 100 on the display unit 33 as shown in FIG. Let

その後、図3−2に示すように、操作者の指F1によってソフトウェアキーボードの画像100のうち、「G」のキーの画像102がタッチされたら、携帯通信機器10は、そのタッチを検出する。なお、携帯通信機器10は、キーの選択動作と入力確定(決定)動作とが設定されており、入力部28が単にタッチされた状態(キーの選択動作が入力された状態)では、キーが入力されたとは判定せず、キーが選択された状態と判定する。   Then, as illustrated in FIG. 3B, when the image 102 of the “G” key in the image 100 of the software keyboard is touched by the operator's finger F1, the mobile communication device 10 detects the touch. Note that the mobile communication device 10 is set with a key selection operation and an input confirmation (determination) operation. When the input unit 28 is simply touched (a state in which the key selection operation is input), the key is changed. It is not determined that the key has been input, but it is determined that the key has been selected.

その後、操作者の指F1によって画像102がタッチされた状態が所定時間維持されたら、携帯通信機器10は、図3−3に示すように、「G」のキー及びその周囲の「R」、「T」、「Y」、「F」、「H」、「V」、「B」、「N」のキーを拡大した拡大画像114を表示させる。ここで、拡大画像114は、「G」のキーの拡大画像114aが、他のキーの拡大画像よりも大きい画像となっている。なお、携帯通信機器10(の制御部22)は、表示部33に表示させているソフトウェアキーの各キーの表示領域に応じて、各キーの入力検出領域も変化させる。つまり、キーの表示領域の変化に応じて、該当するキーが入力されたと判定する領域も変化させる。   After that, when the state in which the image 102 is touched by the operator's finger F1 is maintained for a predetermined time, the mobile communication device 10 has a “G” key and surrounding “R”, as shown in FIG. An enlarged image 114 is displayed in which the keys “T”, “Y”, “F”, “H”, “V”, “B”, and “N” are enlarged. Here, the enlarged image 114 is an image in which the enlarged image 114a of the “G” key is larger than the enlarged images of the other keys. Note that the mobile communication device 10 (the control unit 22 thereof) also changes the input detection area of each key in accordance with the display area of each key of the software key displayed on the display unit 33. That is, according to the change of the key display area, the area for determining that the corresponding key is input is also changed.

携帯通信機器10は、図3−3に示すように、拡大画像114を表示させている状態で、拡大画像114を構成するキーの画像に対して決定動作が入力されたら、該当するキーを入力された文字とする。   As illustrated in FIG. 3C, when the mobile communication device 10 is in a state where the enlarged image 114 is being displayed and a determination operation is input with respect to an image of a key constituting the enlarged image 114, the corresponding key is input. Character.

ここで、文字入力の選択操作と確定操作との設定方法は種々の設定とすることができる。例えば、入力部28へのタッチを、所定の閾値以下の押圧力によるタッチと閾値より強い押圧力によるタッチとの2段階で検出可能とする。この場合、携帯通信機器10は、キーの画像が閾値より弱い押圧力でタッチされていることを検出したときに、その座標に表示されているソフトウェアキーに対応する文字が選択されていると判定し、キーの画像が閾値より強い押圧力でタッチされたことを検出したときに、その座標に表示されているキーに対応する文字が入力された(入力が確定された)と判定する。このように、タッチ(接触)の押圧力に基づいて判定する設定とすることで、ユーザは、より強い力で押下するのみで、入力を確定することができる。なお、上記実施形態では、入力部28の押圧力を2段階で判定し、それぞれの押圧力を選択操作と確定操作とにする設定としたが、押圧力を2つ以上の閾値を設定して3段階以上に分けて検出するようにしても良い。この場合は、圧力の段階に応じて、選択操作、確定操作に加え、種々の文字入力に関する制御、例えば変換開始の指示、文節の指示等を設定することができる。また、例えば、操作者によるタッチが解消されたことを検出したら確定操作が入力されたと判定し、その座標に表示されているソフトウェアキーに対応する文字が入力されたと判定するようにしても良い。   Here, the setting method of the character input selection operation and the confirmation operation can be various settings. For example, a touch on the input unit 28 can be detected in two stages: a touch with a pressing force equal to or less than a predetermined threshold and a touch with a pressing force stronger than the threshold. In this case, when the mobile communication device 10 detects that the key image is touched with a pressing force weaker than the threshold value, it determines that the character corresponding to the software key displayed at the coordinates is selected. When it is detected that the key image is touched with a pressing force stronger than the threshold value, it is determined that the character corresponding to the key displayed at the coordinates has been input (the input has been confirmed). Thus, by setting to determine based on the pressing force of touch (contact), the user can confirm the input only by pressing with a stronger force. In the above embodiment, the pressing force of the input unit 28 is determined in two stages, and each pressing force is set to be a selection operation and a confirmation operation. However, the pressing force is set to two or more threshold values. You may make it detect in 3 steps or more. In this case, in accordance with the pressure level, in addition to the selection operation and the confirmation operation, various character input controls such as conversion start instructions and phrase instructions can be set. Further, for example, when it is detected that the touch by the operator has been eliminated, it may be determined that the confirmation operation has been input, and it may be determined that the character corresponding to the software key displayed at the coordinates has been input.

また、携帯通信機器10は、図3−3に示すように、拡大画像114を表示させている状態で、操作者の指F1によるタッチ位置が拡大画像114の外に移動されると、図4に示すように、「G」のソフトウェアキー及びその周囲のソフトウェアキーの画像の拡大表示を終了し、「G」のソフトウェアキーの画像及びその周囲のソフトウェアキーの画像の大きさを元のサイズに戻す。   Further, as illustrated in FIG. 3C, when the touch position by the operator's finger F1 is moved out of the enlarged image 114 while the enlarged image 114 is displayed, the mobile communication device 10 is displayed in FIG. As shown in FIG. 5, the enlarged display of the image of the software key “G” and the surrounding software keys is terminated, and the size of the image of the software key “G” and the surrounding software keys is returned to the original size. return.

このように、携帯通信機器10は、ソフトウェアキーのうち、ユーザが接触したキーを含む一部のキーを拡大表示させることにより、ソフトウェアキーをタッチしやすくすることができる。上記実施形態では、「G」とその周辺の「R」、「T」、「Y」、「F」、「H」、「V」、「B」、「N」のキー(ソフトウェアキー)の画像をタッチし易くさせることができる。これにより、操作者は、タッチしたキー及びその周辺のキー、具体的には、「G」、「R」、「T」、「Y」、「F」、「H」、「V」、「B」、「N」の文字を入力し易くなる。これにより、ユーザは、タイプミスの発生を抑制しつつ文字を入力することができる。   As described above, the mobile communication device 10 can easily touch the software key by displaying a part of the software key including the key touched by the user in an enlarged manner. In the above embodiment, the keys (software keys) of “G” and surrounding “R”, “T”, “Y”, “F”, “H”, “V”, “B”, “N” The image can be easily touched. As a result, the operator can touch the touched key and its surrounding keys, specifically, “G”, “R”, “T”, “Y”, “F”, “H”, “V”, “V”, “ It becomes easy to input the characters “B” and “N”. Thereby, the user can input characters while suppressing the occurrence of typing errors.

また、「G」のキーの拡大画像114aを、その周囲のキーの拡大画像よりも大きく表示させることで、操作者が入力を所望しているキーである可能性が高いキーをより大きく表示することができる。これにより、操作者が入力を所望しているキーを最も入力しやすくすることができる。したがって、タッチ位置が本来のキー配置よりも多少ずれても、そのキーを入力することができ、タイプミスの発生をより適切に抑制することができる。   Further, by displaying the enlarged image 114a of the “G” key larger than the enlarged images of the surrounding keys, a key that is likely to be a key that the operator desires to input is displayed larger. be able to. Thereby, it is possible to make it easier to input a key that the operator desires to input. Therefore, even if the touch position is slightly deviated from the original key arrangement, the key can be input, and the occurrence of typing errors can be more appropriately suppressed.

また、タッチ位置がタッチを継続したまま拡大画像114の表示領域から外れたら、拡大画像114の表示を終了させることで、操作者は、拡大表示されたソフトウェアキーの外に指F1を移動させることで、拡大表示されたソフトウェアキーを容易に元のサイズに戻すことができる。   Further, when the touch position deviates from the display area of the enlarged image 114 while continuing the touch, the operator can move the finger F1 outside the enlarged software key by terminating the display of the enlarged image 114. Thus, the enlarged software key can be easily restored to the original size.

ここで、携帯通信機器10は、タッチされてからの経過時間に応じて、表示部33に表示させる拡大画像114の大きさを多段階で切り替える。つまり、拡大画像114の大きさを段階的に大きくする。また、拡大画像114は、大きさが所定の大きさ(予め設定された最大サイズ)となったら、時間が経過してもその大きさで表示させる。なお、拡大表示開始から最大サイズに至るまでの時間については、予めユーザによって調整可能にしても良い。   Here, the mobile communication device 10 switches the size of the enlarged image 114 displayed on the display unit 33 in multiple steps according to the elapsed time since the touch. That is, the size of the enlarged image 114 is increased stepwise. Further, when the size of the enlarged image 114 reaches a predetermined size (a preset maximum size), the enlarged image 114 is displayed in that size even if time passes. The time from the start of enlarged display to the maximum size may be adjustable in advance by the user.

また、携帯通信機器10は、操作者の指F1によって「G」のソフトウェアキーの画像102がタッチされたら、「G」のソフトウェアキー及びその周囲のソフトウェアキーの画像を拡大して表示させる処理を開始するようにしても良い。つまり、「G」のソフトウェアキーの画像102がタッチされた状態が所定時間維持されるのを待たずに、上述した拡大画像114を表示させるようにしても良い。   In addition, when the “G” software key image 102 is touched by the operator's finger F1, the mobile communication device 10 performs a process of enlarging and displaying the “G” software key and surrounding software key images. It may be started. That is, the above-described enlarged image 114 may be displayed without waiting for the state where the “G” software key image 102 is touched to be maintained for a predetermined time.

また、ここでは、タッチされたキー及びその周囲のキーの画像が拡大されて表示されることとしたが、タッチされたキー及びその周囲のキーの画像の内の少なくとも1つの画像が拡大されて表示されることとしても良い。例えば、タッチされたキー及びその上下左右に隣接するキーの画像が拡大されて表示されることとしても良い。   Also, here, the image of the touched key and the surrounding keys are enlarged and displayed, but at least one of the touched key and the surrounding keys is enlarged. It may be displayed. For example, the image of the touched key and the adjacent keys on the top, bottom, left, and right may be enlarged and displayed.

なお、文字入力の確定の仕方として、操作者によるタッチが解消されたことを検出したときにその座標に表示されているソフトウェアキーに対応する文字が入力確定されるという確定の仕方以外を採用してもよい。そしてこの場合には、操作者によるタッチが解消されたときに拡大表示されたソフトウェアキーを元のサイズに戻すようにしても良い。   As a method for confirming the character input, a method other than the method for confirming that the character corresponding to the software key displayed at the coordinates is input and confirmed when it is detected that the touch by the operator is canceled is adopted. May be. In this case, the enlarged software key may be returned to the original size when the touch by the operator is canceled.

次に、タッチされた位置が移動される場合の画面表示例について説明する。例えば、先に説明した図3−2に示すように、操作者の指F1によって、画像102がタッチされ、タッチされた状態が所定時間維持されると、先に説明した図3−3に示すように、拡大画像114が拡大表示される。その後、携帯通信機器10は、図5−1に示すように、操作者の指F1によるタッチ位置が拡大画像114のうち、タッチを継続したまま「Y」のキーを示す拡大画像114bに移動され、かつ、拡大画像114bがタッチされた状態が所定時間維持されていることを検出したら、図5−2に示すように、「Y」のキー及びその周囲の「T」、「U」、「G」、「H」、「J」のキーを拡大した拡大画像116を表示させる。なお、この場合、携帯通信機器10は、拡大画像114に代えて、拡大画像116を表示させる。   Next, an example of a screen display when the touched position is moved will be described. For example, as illustrated in FIG. 3-2 described above, when the image 102 is touched by the operator's finger F1 and the touched state is maintained for a predetermined time, the image is illustrated in FIG. 3-3 described above. Thus, the enlarged image 114 is enlarged and displayed. After that, as shown in FIG. 5A, the mobile communication device 10 is moved to the enlarged image 114b indicating the “Y” key while the touch is continued, in the enlarged image 114, with the touch position of the operator's finger F1. And, when it is detected that the state where the enlarged image 114b is touched is maintained for a predetermined time, as shown in FIG. 5B, the “Y” key and the surrounding “T”, “U”, “ An enlarged image 116 in which the keys “G”, “H”, and “J” are enlarged is displayed. In this case, the mobile communication device 10 displays the enlarged image 116 instead of the enlarged image 114.

これにより、操作者は、「Y」の文字を入力することを所望している場合に、最初に「G」のソフトウェアキーの画像をタッチした後でも、タッチした指を「Y」のソフトウェアキーの画像に移動させることにより、「Y」のソフトウェアキーの画像を大きく表示させることができ、「Y」のソフトウェアキーの画像を容易にタッチし易くなる。つまり、操作者は「Y」の文字を入力し易くなる。また、ユーザは、「U」、「J」の入力を希望していて、「G」のキーが拡大表示された場合であっても、簡単に「U」、「J」のキーを拡大表示することができる。つまり、タッチを一度離して、また、再度画面にタッチすることなく、「U」、「J」を入力することができる。   Thus, when the operator desires to input the letter “Y”, the touched finger can be moved to the “Y” software key even after first touching the image of the “G” software key. The image of the software key “Y” can be displayed in a large size by moving to the image of “Y”, and the image of the software key “Y” can be easily touched. That is, the operator can easily input the letter “Y”. Further, even if the user desires to input “U” and “J” and the “G” key is enlarged, the “U” and “J” keys are easily enlarged. can do. That is, “U” and “J” can be input without releasing the touch and touching the screen again.

なお、この場合も、携帯通信機器10は、ユーザによるタッチ位置が拡大画像114のうち、「Y」のキーを示す拡大画像114bに移動されたことを検出したら、拡大画像114に代えて、拡大画像116を表示させるようにしても良い。   Also in this case, when the mobile communication device 10 detects that the touch position by the user has been moved to the enlarged image 114b indicating the “Y” key in the enlarged image 114, the enlarged image 114 is used instead of the enlarged image 114. The image 116 may be displayed.

次に、2つのキーがタッチされる第1の場合について説明する。まず、携帯通信機器10は、図3−1に示すQWERTY配列のソフトウェアキーボード100において、操作者の第1の指F1によって「H」のキーの画像104がタッチされ、タッチされた状態が所定時間維持されていることを検出したら、図6−1に示すように、「H」のキー及びその周囲の「T」、「Y」、「U」、「G」、「J」、「B」、「N」、「M」のキーが拡大された拡大画像118を表示させる。なお、拡大画像118では、「H」のキーの拡大画像118aを、その周囲のキーの拡大画像よりも大きく表示させる。   Next, a first case where two keys are touched will be described. First, the mobile communication device 10 touches the image 104 of the “H” key with the first finger F1 of the operator on the software keyboard 100 having the QWERTY layout shown in FIG. When it is detected that the key is maintained, as shown in FIG. 6A, the “H” key and surrounding “T”, “Y”, “U”, “G”, “J”, “B” , “N”, “M” keys are enlarged, and an enlarged image 118 is displayed. In the enlarged image 118, the enlarged image 118a of the “H” key is displayed larger than the enlarged images of the surrounding keys.

次に、携帯通信機器10は、操作者の第2の指F2によって「S」のキーの画像106がタッチされ、タッチされた状態が所定時間維持されると、図6−2に示すように、「S」のキー及びその周囲の「Q」、「W」、「E」、「A」、「D」、「Z」、「X」、「C」のキーの画像を拡大した拡大画像120を表示させる。また、拡大画像120は、「S」のキーの拡大画像120aは、その周囲のキーの拡大画像よりも大きく表示させる。また、拡大画像120は、拡大画像118の色と異なる色で表示する。   Next, the mobile communication device 10 touches the image 106 of the “S” key with the operator's second finger F2, and when the touched state is maintained for a predetermined time, as shown in FIG. , “S” key and the surrounding “Q”, “W”, “E”, “A”, “D”, “Z”, “X”, “C” key enlarged image 120 is displayed. Further, the enlarged image 120 is displayed such that the enlarged image 120a of the “S” key is larger than the enlarged images of the surrounding keys. The enlarged image 120 is displayed in a color different from the color of the enlarged image 118.

これにより、携帯通信機器10を複数点で同時に文字入力可能とし、それぞれタッチされた位置を拡大画像で表示することで、操作者は、第1の指F1を用いて「H」、「T」、「Y」、「U」、「G」、「J」、「B」、「N」、「M」の文字を容易に入力することができること、及び、第2の指F2を用いて「S」、「Q」、「W」、「E」、「A」、「D」、「Z」、「X」、「C」の文字を容易に入力することができる。また拡大画像の色を変化させることで、直感的に把握することができる。   Thus, the mobile communication device 10 can be input simultaneously at a plurality of points, and the touched position is displayed as an enlarged image, so that the operator can use the first finger F1 to perform “H”, “T”. , “Y”, “U”, “G”, “J”, “B”, “N”, “M”, and the second finger F2 can be used to input “ The characters S, Q, W, E, A, D, Z, X, and C can be easily input. In addition, it is possible to grasp intuitively by changing the color of the enlarged image.

次に、2つのキーがタッチされ、各タッチによる2組の拡大画像が重なる場合について説明する。まず、携帯通信機器10は、図3−1に示すQWERTY配列のソフトウェアキーボード100において、操作者の第1の指F1によって「H」のキーの画像104がタッチされ、タッチされた状態が所定時間維持されていることを検出したら、図7−1に示すように、「H」のキー及びその周囲の「T」、「Y」、「U」、「G」、「J」、「B」、「N」、「M」のキーが拡大された拡大画像118を表示させる。なお、拡大画像118では、「H」のキーの拡大画像118aを、その周囲のキーの拡大画像よりも大きく表示させる。   Next, a case where two keys are touched and two sets of enlarged images resulting from each touch overlap will be described. First, the mobile communication device 10 touches the image 104 of the “H” key with the first finger F1 of the operator on the software keyboard 100 having the QWERTY layout shown in FIG. When it is detected that the key is maintained, as shown in FIG. 7A, the “H” key and surrounding “T”, “Y”, “U”, “G”, “J”, “B” , “N”, “M” keys are enlarged, and an enlarged image 118 is displayed. In the enlarged image 118, the enlarged image 118a of the “H” key is displayed larger than the enlarged images of the surrounding keys.

次に、携帯通信機器10は、操作者の第2の指F2(2つ目の入力点)によって「D」のキーの画像108がタッチされ、タッチされた状態が所定時間維持されると、図7−2に示すように、「D」のキー及びその周囲の「W」、「E」、「R」、「S」、「F」、「X」、「C」、「V」のキーを拡大した拡大画像122を表示させる。なお、拡大画像122では、「D」のキーの拡大画像122aを、その周囲のキーの拡大画像よりも大きく表示させる。   Next, when the portable communication device 10 touches the image 108 of the “D” key with the operator's second finger F2 (second input point) and the touched state is maintained for a predetermined time, As shown in FIG. 7-2, the key “D” and surrounding “W”, “E”, “R”, “S”, “F”, “X”, “C”, “V” An enlarged image 122 in which the key is enlarged is displayed. In the enlarged image 122, the enlarged image 122a of the “D” key is displayed larger than the enlarged images of the surrounding keys.

また、携帯通信機器10は、後の方(最新)のタッチつまり第2の指F2のタッチによる拡大画像122を、先の方のタッチつまり第1の指F1のタッチによる拡大画像118より上の階層、フォアグラウンド表示させる。つまり、拡大画像118と拡大画像122とを重ねて表示可能にし、かつ、最新に操作された拡大画像122を拡大画像118の上に重ねる。したがって、先の方のタッチつまり第1の指F1のタッチにより表示された拡大画像118の「T」、「G」、「B」のキーの拡大画像118bの多くの部分は、後の方のタッチつまり第2の指F2のタッチより表示された拡大画像122の「R」、「F」、「V」のキーの拡大画像の下に隠れることになる。   Also, the mobile communication device 10 displays the enlarged image 122 by the later (latest) touch, that is, the touch of the second finger F2, and the enlarged image 118 by the earlier touch, that is, the touch of the first finger F1. Display hierarchy and foreground. That is, the enlarged image 118 and the enlarged image 122 can be displayed in an overlapping manner, and the latest operated enlarged image 122 is overlaid on the enlarged image 118. Therefore, many portions of the enlarged image 118b of the “T”, “G”, and “B” keys of the enlarged image 118 displayed by the earlier touch, that is, the touch of the first finger F1, It is hidden under the enlarged image of the key “R”, “F”, “V” of the enlarged image 122 displayed by the touch, that is, the touch of the second finger F2.

このように、拡大画像の表示領域が重なる場合は、最新の操作が入力された拡大画像をより上の層、つまり、より見やすく、かつ大面積で表示させる。これにより、直近に操作され、入力される可能性がより高いキーを有する拡大画像をより見やすい位置に表示させることができる。   As described above, when the display areas of the enlarged images overlap, the enlarged image to which the latest operation is input is displayed in a higher layer, that is, more easily visible and in a large area. Thereby, it is possible to display an enlarged image having a key which is operated most recently and is more likely to be input at a more easily viewable position.

次に、携帯通信機器10は、操作者が第1の指F1のタッチ位置を「H」のキーの拡大画像118aから「G」のキーの拡大画像118bに移動させると、図7−3に示すように、拡大画像118を、拡大画像122より上の階層、つまり、フォアグラウンド表示させる。   Next, when the operator moves the touch position of the first finger F1 from the enlarged image 118a of the “H” key to the enlarged image 118b of the “G” key, the mobile communication device 10 changes to FIG. As shown, the enlarged image 118 is displayed in a hierarchy above the enlarged image 122, that is, the foreground.

このように、携帯通信機器10は、最新にタッチ位置が変動した拡大画像をよりフォアグラウンドに表示させることで、入力される可能性がより高いキーを有する拡大画像をより見やすい位置に表示させることができる。なお、ここでは、操作者が2本の指を同時に使用する場合について説明したが、操作者が3本以上の指を同時に使用する場合についても同様に表示制御するようにしても良い。このように、2本以上の指でも容易に入力できるので、ctlキーやSHIFTキーにも応用しやすい。   In this manner, the mobile communication device 10 can display an enlarged image having a key that is more likely to be input at a more easily viewable position by displaying the enlarged image whose touch position has changed most recently in the foreground. it can. Although the case where the operator uses two fingers at the same time has been described here, display control may be performed in the same manner when the operator uses three or more fingers at the same time. As described above, since it is possible to easily input with two or more fingers, it is easy to apply to a ctl key or a SHIFT key.

次に、図8を用いて携帯通信機器10の動作、具体的には、文字入力受付動作について説明する。図8は、携帯通信機器の処理動作の一例を示すフロー図である。   Next, the operation of the mobile communication device 10, specifically, the character input acceptance operation will be described with reference to FIG. FIG. 8 is a flowchart showing an example of the processing operation of the mobile communication device.

図8を参照すると、入力部28は、ステップS12として、ソフトウェアキーの画像へのタッチ入力を検出する。次に、制御部22は、マルチタッチ制御アプリケーション部22aにより、ステップS14として、ソフトウェアキーの画像への指のタッチが追加されたか否かを、入力部28から渡される情報に基づいて判定する。なお、ソフトウェアキーの画像へのタッチの追加には、1回目のタッチ(初回のタッチ)も含む。   Referring to FIG. 8, in step S12, the input unit 28 detects a touch input to the image of the software key. Next, the control part 22 determines whether the touch of the finger | toe to the image of a software key was added by the multitouch control application part 22a based on the information passed from the input part 28 as step S14. Note that the addition of the touch of the software key to the image includes the first touch (first touch).

制御部22は、マルチタッチ制御アプリケーション部22aにより、ソフトウェアキーの画像への指のタッチが追加されたと判定したら(Yes)、ステップS16として、タッチ追加処理を行う。タッチ追加処理とは、入力部28から送られた情報(タッチされた座標の座標情報を含む)を判別し、タッチの順番に応じて入力部28から送られた情報を管理し、各タッチの識別情報を表示制御部23に送る処理である。表示制御部23は、制御部22から送られた情報に基づいて画像を生成し、ドライバIC32に出力する。   If the multi-touch control application unit 22a determines that a finger touch on the image of the software key has been added (Yes), the control unit 22 performs a touch addition process as step S16. Touch addition processing refers to determining information sent from the input unit 28 (including coordinate information of touched coordinates), managing information sent from the input unit 28 according to the touch order, and This is processing for sending the identification information to the display control unit 23. The display control unit 23 generates an image based on the information sent from the control unit 22 and outputs the image to the driver IC 32.

次に、制御部22は、マルチタッチ制御アプリケーション部22aにより、ステップS18として、追加されたタッチに対応するタイマーをスタートさせる。   Next, the control part 22 starts the timer corresponding to the added touch as step S18 by the multi-touch control application part 22a.

次に、制御部22は、キー拡大制御アプリケーション部22cにより、ステップS14でソフトウェアキーの画像への指のタッチが追加されていないと判定したら(No)又はステップS18を実行したら、ステップS20として、タッチ毎のタイマーの何れかが計時を開始してから一定時間が経過したか否かを判定する。   Next, when the key enlargement control application unit 22c determines that the finger touch on the software key image has not been added in Step S14 (No) or when Step S18 is executed, the control unit 22 performs Step S20. It is determined whether or not a certain time has elapsed since any one of the timers for each touch starts timing.

制御部22は、キー拡大制御アプリケーション部22cにより、ステップS20で何れかのタイマーが計時を開始してから一定時間が経過したと判定したら(Yes)、ステップS22として、タッチされているソフトウェアキーが予め設定された上限まで拡大表示されているか否かを判定する。なお、先に説明したように、ソフトウェアキーの画像(一部のキーの拡大画像)は、タッチされてからの経過時間に応じて、所定のサイズまで多段階に拡大表示される。   If it is determined by the key expansion control application unit 22c that a certain period of time has elapsed since any timer started counting in step S20 (Yes), the control unit 22 determines that the touched software key is in step S22. It is determined whether or not the display is enlarged up to a preset upper limit. As described above, software key images (enlarged images of some keys) are enlarged and displayed in multiple stages up to a predetermined size in accordance with the elapsed time since the touch.

制御部22は、キー拡大制御アプリケーション部22cにより、ステップS22でタッチされているソフトウェアキーが一定の上限まで拡大表示されていないと判定したら(No)、ステップS24として、タッチされているソフトウェアキー及びその周囲のソフトウェアキーを現在よりも1段階拡大表示させるソフトウェアキー拡大情報を表示制御部23に送り、タッチされているソフトウェアキー及びその周囲のソフトウェアキーを現在よりも1段階拡大した画像とする。具体的には、制御部22は、表示制御部23により、各部から供給された条件(ステップS12、S16参照)に基づいて、画像を生成する。   If the key enlargement control application unit 22c determines that the software key touched in step S22 is not enlarged to a certain upper limit (No), the control unit 22 determines that the touched software key and Software key enlargement information for enlarging and displaying the surrounding software keys by one step from the present is sent to the display control unit 23, and the touched software key and the surrounding software keys are enlarged by one step from the present. Specifically, the control unit 22 generates an image based on the conditions (see Steps S12 and S16) supplied from each unit by the display control unit 23.

次に、制御部22は、キー拡大制御アプリケーション部22cにより、ステップS26として、マルチタッチ制御アプリケーション部22aから各指でタッチされている座標情報を受け取り、記憶部24内に格納された一定の条件(タイマー値、拡大該当キー判定情報等)に応じて、記憶部24内の座標・キー対応データベースを更新する。ソフトウェアキーの画像が拡大表示されると入力部28の座標とソフトウェアキーとの対応関係が変化するが、この座標・キー対応データベースを更新することで、後のステップS32において指でタッチされている座標がどのソフトウェアキーに対応するかを取得することが可能になる。   Next, the control unit 22 receives coordinate information touched with each finger from the multi-touch control application unit 22a by the key enlargement control application unit 22c in step S26, and stores certain conditions stored in the storage unit 24. The coordinate / key correspondence database in the storage unit 24 is updated in accordance with (timer value, enlarged key determination information, etc.). When the image of the software key is enlarged and displayed, the correspondence between the coordinates of the input unit 28 and the software key changes. By updating this coordinate / key correspondence database, the finger is touched in the subsequent step S32. It is possible to obtain which software key the coordinate corresponds to.

制御部22は、キー拡大制御アプリケーション部22cにより、ステップS20で何れのタイマーも計時を開始してから一定時間が経過していないと判定したら(No)、ステップS22でタッチされているソフトウェアキーが一定の上限まで拡大表示されていると判定したら(Yes)、又は、ステップS26を実行したら、ステップS30として、各タイマーの計時値を更新する。なお、制御部22がタイマーの計時値を随時更新するようにしても良い。   If the control unit 22 determines by the key enlargement control application unit 22c that no fixed time has elapsed since the start of any timer in step S20 (No), the software key touched in step S22 is determined. If it is determined that the display is enlarged to a certain upper limit (Yes), or if step S26 is executed, the time value of each timer is updated as step S30. The control unit 22 may update the time value of the timer as needed.

次に、制御部22は、ステップS32として、マルチタッチ制御アプリケーション部22aにより、入力部28から指がタッチされている座標情報を受け取り、記憶部24内に格納されている座標・キー対応データベースを検索することにより、タッチされているソフトウェアキーを判別する。   Next, in step S32, the control unit 22 receives coordinate information where the finger is touched from the input unit 28 by the multi-touch control application unit 22a, and stores the coordinate / key correspondence database stored in the storage unit 24. By searching, the touched software key is determined.

次に、制御部22は、ステップS34として、フィードバック制御アプリケーション部22bにより、マルチタッチ制御アプリケーション部22aから指がタッチされているソフトウェアキーの座標情報を受け取り、指の移動に対応させて表示部33に表示させるソフトウェアキー画像(フィードバック表示画像)を格納したフィードバック情報データベースを検索し、指の移動に対応したフィードバック表示画像を表示させるように表示制御部23を制御する。このステップにより、例えば、操作者が1つのソフトウェアキー及びその周囲のキーの画像の外に指を移動させた場合に、1つのキー及びその周囲のキーの画像を元のサイズに戻すこと等が可能となる。また、例えば、操作者が2本の指を同時に使用する場合に、フォアグラウンド表示される拡大画像を切換える事等が可能となる。   Next, in step S34, the control unit 22 receives the coordinate information of the software key touched by the finger from the multi-touch control application unit 22a by the feedback control application unit 22b, and displays the display unit 33 corresponding to the movement of the finger. A feedback information database storing software key images (feedback display images) to be displayed is searched, and the display control unit 23 is controlled to display a feedback display image corresponding to the movement of the finger. By this step, for example, when the operator moves a finger outside the image of one software key and its surrounding keys, the image of one key and its surrounding keys can be restored to the original size, etc. It becomes possible. Further, for example, when the operator uses two fingers at the same time, it is possible to switch an enlarged image displayed in the foreground.

なお、制御部22は、ステップS12からステップS34までの処理を、操作者によって文字入力が確定されるまで繰り返し行う。文字入力の確定の仕方としては、先に説明したように、例えば、入力部28が所定の閾値以下の押圧力によるタッチ及び閾値より強い押圧力によるタッチの少なくとも2段階のタッチを検出可能である場合には、操作者がソフトウェアキーの画像を閾値より強い押圧力でタッチしたことを検出したときに、その座標に表示されているソフトウェアキーに対応する文字が入力確定されるようにしても良い。また、入力部28が3段階以上のタッチを検出可能とし、文字入力に関する制御を段階に応じて行うようにしても良い。また、例えば、操作者によるタッチが解消されたことを検出したときに、その座標に表示されているソフトウェアキーに対応する文字が入力確定されるようにしても良い。   The control unit 22 repeats the processing from step S12 to step S34 until the character input is confirmed by the operator. As described above, for example, the input unit 28 can detect at least two stages of touch by pressing with a pressing force equal to or less than a predetermined threshold and touch with pressing force stronger than the threshold, as described above. In this case, when it is detected that the operator has touched the image of the software key with a pressing force stronger than the threshold value, the character corresponding to the software key displayed at the coordinates may be input and confirmed. . Alternatively, the input unit 28 may be able to detect touches of three or more stages, and control regarding character input may be performed according to the stages. Further, for example, when it is detected that the touch by the operator has been canceled, the character corresponding to the software key displayed at the coordinates may be input and confirmed.

また、本実施形態においては、QWERTY配列のソフトウェアキーボードを用いた場合について説明したが、これに限られず、他の配列、例えば、マルチタップの10キー配列のソフトウェアキーボード、ハングル語等の他言語のソフトウェアキーボードを用いても良い。   In this embodiment, the case where a software keyboard having a QWERTY layout is used has been described. However, the present invention is not limited to this, and other layouts such as a multi-tap 10-key layout software keyboard and other languages such as Korean. A software keyboard may be used.

以上のように、本発明にかかる文字入力装置、文字入力方法及び文字入力プログラムは、表示部に表示されたソフトウェアキーボードを用いて文字の入力を行うのに有用である。   As described above, the character input device, the character input method, and the character input program according to the present invention are useful for inputting characters using the software keyboard displayed on the display unit.

10 携帯通信機器
11 筐体
15 マイク
16 レシーバ
22 制御部
22a マルチタッチ制御アプリケーション部
22b フィードバック制御アプリケーション部
22c キー拡大制御アプリケーション部
23 表示制御部
24 記憶部
26 通信部
26a アンテナ
28 入力部
30 音声処理部
32 ドライバIC
33 表示部
DESCRIPTION OF SYMBOLS 10 Portable communication apparatus 11 Case 15 Microphone 16 Receiver 22 Control part 22a Multi-touch control application part 22b Feedback control application part 22c Key expansion control application part 23 Display control part 24 Storage part 26 Communication part 26a Antenna 28 Input part 30 Audio | voice processing part 32 Driver IC
33 Display

Claims (16)

画像を表示する表示部と、
前記表示部に重畳して配置され、操作者のタッチ入力を検出する入力検出部と、
前記表示部にソフトウェアキーボードを表示させ、前記入力検出部でソフトウェアキーボードの1つのキーの画像がタッチされたことを検出したら、当該1つのキーの画像及びその周囲のキーの内の少なくとも1つの画像を拡大して表示させる第1の拡大キー表示を行う制御部と、
を備えることを特徴とする文字入力装置。
A display for displaying an image;
An input detection unit arranged to be superimposed on the display unit and detecting an operator's touch input;
When a software keyboard is displayed on the display unit and the input detection unit detects that an image of one key of the software keyboard is touched, an image of the one key and at least one of the surrounding keys A control unit that performs a first enlargement key display for enlarging and displaying
A character input device comprising:
前記制御部は、前記入力検出部で前記1つのキーの画像がタッチされた状態が所定時間維持されたことを検出したら、前記第1の拡大キー表示を行うことを特徴とする請求項1に記載の文字入力装置。   2. The display device according to claim 1, wherein the control unit performs the first enlarged key display when the input detection unit detects that the touched state of the image of the one key is maintained for a predetermined time. The character input device described. 前記制御部は、前記第1の拡大キー表示として前記1つのキーの画像及びその周囲の全てのキーの画像を拡大して表示させることを特徴とする請求項1又は2に記載の文字入力装置。   The character input device according to claim 1, wherein the control unit enlarges and displays the image of the one key and the images of all the surrounding keys as the first enlarged key display. . 前記制御部は、前記第1の拡大キー表示として前記1つのキーの画像をその周囲のキーの画像よりも大きく表示させることを特徴とする請求項1〜3のいずれか1項に記載の文字入力装置。   The character according to any one of claims 1 to 3, wherein the control unit displays an image of the one key larger than an image of a surrounding key as the first enlarged key display. Input device. 前記制御部は、前記1つのキーの画像がタッチされてからの経過時間に応じて前記第1の拡大キー表示による画像を徐々に拡大することを特徴とする請求項1〜4のいずれか1項に記載の文字入力装置。   5. The control unit according to claim 1, wherein the control unit gradually enlarges the image displayed by the first enlargement key display in accordance with an elapsed time after the image of the one key is touched. The character input device according to item. 前記制御部は、前記第1の拡大キー表示中に前記入力検出部でタッチされている位置が前記第1の拡大キー表示による画像の外に移動されたことを検出したら、前記第1の拡大キー表示を終了することを特徴とする請求項1〜4のいずれか1項に記載の文字入力装置。   When the control unit detects that the position touched by the input detection unit during the display of the first enlargement key is moved outside the image by the first enlargement key display, the first enlargement key is displayed. 5. The character input device according to claim 1, wherein the key display is terminated. 前記制御部は、前記第1の拡大キー表示中に前記入力検出部で前記1つのキーの周囲のキーの内の何れかのキーの画像にタッチ位置が移動したことを検出したら、当該移動した先のキーを中心として前記第1の拡大キー表示を行うことを特徴とする請求項1〜6のいずれか1項に記載の文字入力装置。   When the control unit detects that the touch position is moved to an image of any one of the keys around the one key by the input detection unit during the display of the first enlarged key, the control unit moves the key. The character input device according to claim 1, wherein the first enlarged key display is performed around the previous key. 前記制御部は、前記移動した先の画像がタッチされた状態が所定時間維持されたことを検出したら、当該移動した先のキーを中心として前記第1の拡大キー表示を行うことを特徴とする請求項7に記載の文字入力装置。   When the control unit detects that the touched state of the moved destination image is maintained for a predetermined time, the control unit performs the first enlarged key display with the moved destination key as a center. The character input device according to claim 7. 前記制御部は、前記第1の拡大キー表示中に前記入力検出部で前記1つのキーの画像がタッチされたまま、更に他のキーの画像がタッチされたことを検出したら、当該他のキーの画像及びその周囲のキーの画像を拡大して表示させる第2の拡大キー表示を行うことを特徴とする請求項1〜8のいずれか1項に記載の文字入力装置。   When the control unit detects that the image of the one key is still touched by the input detection unit while the first enlarged key is displayed, and the other key is touched, The character input device according to claim 1, wherein a second enlarged key display for enlarging and displaying the image of the image and the image of the surrounding keys is performed. 前記制御部は、前記他のキーの画像がタッチされた状態が所定時間維持されたことを検出したら、前記第2の拡大キー表示を行うことを特徴とする請求項9に記載の文字入力装置。   10. The character input device according to claim 9, wherein the control unit displays the second enlarged key when detecting that the state of the touch of the image of the other key is maintained for a predetermined time. . 前記制御部は、前記第1の拡大キー表示と前記第2の拡大キー表示とが重なる場合には、前記第2の拡大キー表示を前記第1の拡大キー表示の上に重ねて表示させることを特徴とする請求項10に記載の文字入力装置。   When the first enlarged key display and the second enlarged key display overlap each other, the control unit displays the second enlarged key display on the first enlarged key display. The character input device according to claim 10. 前記制御部は、前記第1の拡大キー表示及び前記第2の拡大キー表示中に前記入力検出部でタッチ位置の移動を検出したら、前記第1の拡大キー表示と前記第2の拡大キー表示の内の移動された方のタッチによる拡大表示を他方の拡大表示の上に重ねて表示することを特徴とする請求項11に記載の文字入力装置。   When the control unit detects the movement of the touch position by the input detection unit during the first enlarged key display and the second enlarged key display, the first enlarged key display and the second enlarged key display are displayed. The character input device according to claim 11, wherein an enlarged display by the touch of the moved one of the two is overlaid on the other enlarged display. 前記入力検出部は、所定の閾値以下の押圧力によるタッチ及び前記閾値より強い押圧力によるタッチの少なくとも2段階のタッチを検出可能であり、
前記制御部は、前記入力検出部で前記閾値より強い押圧力でタッチされたことを検出したら、当該タッチされたキーに対応する文字の入力を確定することを特徴とする請求項1〜12のいずれか1項に記載の文字入力装置。
The input detection unit is capable of detecting at least two stages of touch, that is, a touch with a pressing force equal to or less than a predetermined threshold and a touch with a pressing force stronger than the threshold.
The control unit according to claim 1, wherein when the input detection unit detects that the touch is performed with a pressing force stronger than the threshold, the input of the character corresponding to the touched key is confirmed. The character input device according to any one of the above.
前記制御部は、前記入力検出部でキーの画像へのタッチが解消されたことを検出したら、当該タッチ解消の直前にタッチされていたキーに対応する文字の入力を確定することを特徴とする請求項1〜12のいずれか1項に記載の文字入力装置。   When the input detection unit detects that the touch of the key image is canceled, the control unit determines the input of the character corresponding to the key touched immediately before the touch cancellation. The character input device according to claim 1. 画像を表示する表示部と、前記表示部に重畳して配置され、操作者のタッチ入力を検出する入力検出部と、を備える文字入力装置で実行される方法であって、
前記表示部にソフトウェアキーボードを表示させるステップと、
前記入力検出部でソフトウェアキーボードの1つのキーの画像がタッチされたことを検出したら、当該1つのキーの画像及びその周囲のキーの内の少なくとも1つの画像を拡大して表示させる拡大キー表示を行うステップと、
を含むことを特徴とする文字入力方法。
A method executed by a character input device comprising: a display unit that displays an image; and an input detection unit that is arranged to overlap the display unit and detects an operator's touch input,
Displaying a software keyboard on the display unit;
When the input detection unit detects that an image of one key of the software keyboard is touched, an enlarged key display for enlarging and displaying at least one of the image of the one key and the surrounding keys is displayed. Steps to do,
The character input method characterized by including.
画像を表示する表示部と、前記表示部に重畳して配置され、操作者のタッチ入力を検出する入力検出部と、を備える文字入力装置で実行されるプログラムであって、
前記表示部にソフトウェアキーボードを表示させるステップと、
前記入力検出部でソフトウェアキーボードの1つのキーの画像がタッチされたことを検出したら、当該1つのキーの画像及びその周囲のキーの内の少なくとも1つの画像を拡大して表示させる拡大キー表示を行うステップと、
を含むことを特徴とする文字入力プログラム。
A program executed by a character input device comprising: a display unit that displays an image; and an input detection unit that is arranged to be superimposed on the display unit and detects an operator's touch input,
Displaying a software keyboard on the display unit;
When the input detection unit detects that an image of one key of the software keyboard is touched, an enlarged key display for enlarging and displaying at least one of the image of the one key and the surrounding keys is displayed. Steps to do,
A character input program characterized by including:
JP2010059956A 2010-03-16 2010-03-16 Device, method and program for inputting character Pending JP2011192215A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010059956A JP2011192215A (en) 2010-03-16 2010-03-16 Device, method and program for inputting character

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010059956A JP2011192215A (en) 2010-03-16 2010-03-16 Device, method and program for inputting character

Publications (2)

Publication Number Publication Date
JP2011192215A true JP2011192215A (en) 2011-09-29
JP2011192215A5 JP2011192215A5 (en) 2013-03-07

Family

ID=44797019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010059956A Pending JP2011192215A (en) 2010-03-16 2010-03-16 Device, method and program for inputting character

Country Status (1)

Country Link
JP (1) JP2011192215A (en)

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071727A (en) * 2012-09-28 2014-04-21 Pfu Ltd Form input-output device, form input-output method, and program
JP2015167012A (en) * 2014-02-12 2015-09-24 ソフトバンク株式会社 Device and program for character input, and device, method and program for display control
JP2016154037A (en) * 2014-02-12 2016-08-25 ソフトバンク株式会社 Display control device, display control method and display control program
WO2016151919A1 (en) * 2015-03-26 2016-09-29 株式会社ミスミグループ本社 Browsing assistance method for electronic book, and browsing assistance program
US9602729B2 (en) 2015-06-07 2017-03-21 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9612741B2 (en) 2012-05-09 2017-04-04 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US9619076B2 (en) 2012-05-09 2017-04-11 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
JP2017084166A (en) * 2015-10-29 2017-05-18 シャープ株式会社 Information processing terminal
US9753639B2 (en) 2012-05-09 2017-09-05 Apple Inc. Device, method, and graphical user interface for displaying content associated with a corresponding affordance
US9778771B2 (en) 2012-12-29 2017-10-03 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
KR101806350B1 (en) * 2012-05-09 2017-12-07 애플 인크. Device, method, and graphical user interface for selecting user interface objects
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9886184B2 (en) 2012-05-09 2018-02-06 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9959025B2 (en) 2012-12-29 2018-05-01 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9990121B2 (en) 2012-05-09 2018-06-05 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US9996231B2 (en) 2012-05-09 2018-06-12 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
JP2018106766A (en) * 2018-04-09 2018-07-05 シャープ株式会社 Display device, information processing apparatus, image processing apparatus, and image forming apparatus
US10037138B2 (en) 2012-12-29 2018-07-31 Apple Inc. Device, method, and graphical user interface for switching between user interfaces
US10042542B2 (en) 2012-05-09 2018-08-07 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10073615B2 (en) 2012-05-09 2018-09-11 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10078442B2 (en) 2012-12-29 2018-09-18 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or select content based on an intensity theshold
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10126930B2 (en) 2012-05-09 2018-11-13 Apple Inc. Device, method, and graphical user interface for scrolling nested regions
US10162452B2 (en) 2015-08-10 2018-12-25 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10175864B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects in accordance with contact intensity
US10175757B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for touch-based operations performed and reversed in a user interface
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10275087B1 (en) 2011-08-05 2019-04-30 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10437333B2 (en) 2012-12-29 2019-10-08 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US10496260B2 (en) 2012-05-09 2019-12-03 Apple Inc. Device, method, and graphical user interface for pressure-based alteration of controls in a user interface
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05346923A (en) * 1992-06-15 1993-12-27 Nippon Signal Co Ltd:The Display and input device
JP2001175375A (en) * 1999-12-22 2001-06-29 Casio Comput Co Ltd Portable information terminal and storage medium
JP2002091677A (en) * 2000-09-14 2002-03-29 Sanyo Electric Co Ltd Input device and information terminal equipment
JP2003177848A (en) * 2001-12-12 2003-06-27 Hitachi Kokusai Electric Inc Key display method and character inputting device for software keyboard
JP2005182487A (en) * 2003-12-19 2005-07-07 Nec Software Chubu Ltd Character input apparatus, method and program
JP2006059238A (en) * 2004-08-23 2006-03-02 Denso Corp Information input display device
JP2006520024A (en) * 2002-11-29 2006-08-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ User interface using moved representation of contact area
WO2009069392A1 (en) * 2007-11-28 2009-06-04 Nec Corporation Input device, server, display management method, and recording medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05346923A (en) * 1992-06-15 1993-12-27 Nippon Signal Co Ltd:The Display and input device
JP2001175375A (en) * 1999-12-22 2001-06-29 Casio Comput Co Ltd Portable information terminal and storage medium
JP2002091677A (en) * 2000-09-14 2002-03-29 Sanyo Electric Co Ltd Input device and information terminal equipment
JP2003177848A (en) * 2001-12-12 2003-06-27 Hitachi Kokusai Electric Inc Key display method and character inputting device for software keyboard
JP2006520024A (en) * 2002-11-29 2006-08-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ User interface using moved representation of contact area
JP2005182487A (en) * 2003-12-19 2005-07-07 Nec Software Chubu Ltd Character input apparatus, method and program
JP2006059238A (en) * 2004-08-23 2006-03-02 Denso Corp Information input display device
WO2009069392A1 (en) * 2007-11-28 2009-06-04 Nec Corporation Input device, server, display management method, and recording medium

Cited By (123)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10540039B1 (en) 2011-08-05 2020-01-21 P4tents1, LLC Devices and methods for navigating between user interface
US10386960B1 (en) 2011-08-05 2019-08-20 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10365758B1 (en) 2011-08-05 2019-07-30 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10345961B1 (en) 2011-08-05 2019-07-09 P4tents1, LLC Devices and methods for navigating between user interfaces
US10338736B1 (en) 2011-08-05 2019-07-02 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10649571B1 (en) 2011-08-05 2020-05-12 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10275087B1 (en) 2011-08-05 2019-04-30 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10656752B1 (en) 2011-08-05 2020-05-19 P4tents1, LLC Gesture-equipped touch screen system, method, and computer program product
US10664097B1 (en) 2011-08-05 2020-05-26 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10073615B2 (en) 2012-05-09 2018-09-11 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US11354033B2 (en) 2012-05-09 2022-06-07 Apple Inc. Device, method, and graphical user interface for managing icons in a user interface region
US11314407B2 (en) 2012-05-09 2022-04-26 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US11221675B2 (en) 2012-05-09 2022-01-11 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US10095391B2 (en) 2012-05-09 2018-10-09 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US10496260B2 (en) 2012-05-09 2019-12-03 Apple Inc. Device, method, and graphical user interface for pressure-based alteration of controls in a user interface
US10481690B2 (en) 2012-05-09 2019-11-19 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for media adjustment operations performed in a user interface
US10592041B2 (en) 2012-05-09 2020-03-17 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US9823839B2 (en) 2012-05-09 2017-11-21 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US11068153B2 (en) 2012-05-09 2021-07-20 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
KR101806350B1 (en) * 2012-05-09 2017-12-07 애플 인크. Device, method, and graphical user interface for selecting user interface objects
KR20170136019A (en) * 2012-05-09 2017-12-08 애플 인크. Device, method, and graphical user interface for selecting user interface objects
US11947724B2 (en) 2012-05-09 2024-04-02 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US11010027B2 (en) 2012-05-09 2021-05-18 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US10996788B2 (en) 2012-05-09 2021-05-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US9886184B2 (en) 2012-05-09 2018-02-06 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10969945B2 (en) 2012-05-09 2021-04-06 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US10942570B2 (en) 2012-05-09 2021-03-09 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US9612741B2 (en) 2012-05-09 2017-04-04 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US9619076B2 (en) 2012-05-09 2017-04-11 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US9971499B2 (en) 2012-05-09 2018-05-15 Apple Inc. Device, method, and graphical user interface for displaying content associated with a corresponding affordance
KR101956082B1 (en) * 2012-05-09 2019-03-11 애플 인크. Device, method, and graphical user interface for selecting user interface objects
US9990121B2 (en) 2012-05-09 2018-06-05 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US10775999B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US9996231B2 (en) 2012-05-09 2018-06-12 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US10775994B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US10782871B2 (en) 2012-05-09 2020-09-22 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10042542B2 (en) 2012-05-09 2018-08-07 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US10191627B2 (en) 2012-05-09 2019-01-29 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US10908808B2 (en) 2012-05-09 2021-02-02 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US10175757B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for touch-based operations performed and reversed in a user interface
US10175864B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects in accordance with contact intensity
US10168826B2 (en) 2012-05-09 2019-01-01 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10884591B2 (en) 2012-05-09 2021-01-05 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects
US10126930B2 (en) 2012-05-09 2018-11-13 Apple Inc. Device, method, and graphical user interface for scrolling nested regions
US9753639B2 (en) 2012-05-09 2017-09-05 Apple Inc. Device, method, and graphical user interface for displaying content associated with a corresponding affordance
US10114546B2 (en) 2012-05-09 2018-10-30 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US9791995B2 (en) 2012-09-28 2017-10-17 Pfu Limited Form input/output apparatus, form input/output method, and program
JP2014071727A (en) * 2012-09-28 2014-04-21 Pfu Ltd Form input-output device, form input-output method, and program
US10185491B2 (en) 2012-12-29 2019-01-22 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or enlarge content
US9996233B2 (en) 2012-12-29 2018-06-12 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
US10437333B2 (en) 2012-12-29 2019-10-08 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US9778771B2 (en) 2012-12-29 2017-10-03 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
US9965074B2 (en) 2012-12-29 2018-05-08 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
US10175879B2 (en) 2012-12-29 2019-01-08 Apple Inc. Device, method, and graphical user interface for zooming a user interface while performing a drag operation
US9857897B2 (en) 2012-12-29 2018-01-02 Apple Inc. Device and method for assigning respective portions of an aggregate intensity to a plurality of contacts
US10037138B2 (en) 2012-12-29 2018-07-31 Apple Inc. Device, method, and graphical user interface for switching between user interfaces
US10915243B2 (en) 2012-12-29 2021-02-09 Apple Inc. Device, method, and graphical user interface for adjusting content selection
US10078442B2 (en) 2012-12-29 2018-09-18 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or select content based on an intensity theshold
US10101887B2 (en) 2012-12-29 2018-10-16 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
US9959025B2 (en) 2012-12-29 2018-05-01 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
JP2016154037A (en) * 2014-02-12 2016-08-25 ソフトバンク株式会社 Display control device, display control method and display control program
JP2015167012A (en) * 2014-02-12 2015-09-24 ソフトバンク株式会社 Device and program for character input, and device, method and program for display control
US10860177B2 (en) 2015-03-08 2020-12-08 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10268341B2 (en) 2015-03-08 2019-04-23 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11112957B2 (en) 2015-03-08 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10338772B2 (en) 2015-03-08 2019-07-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US10180772B2 (en) 2015-03-08 2019-01-15 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11977726B2 (en) 2015-03-08 2024-05-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10067645B2 (en) 2015-03-08 2018-09-04 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10387029B2 (en) 2015-03-08 2019-08-20 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10402073B2 (en) 2015-03-08 2019-09-03 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10613634B2 (en) 2015-03-08 2020-04-07 Apple Inc. Devices and methods for controlling media presentation
US10268342B2 (en) 2015-03-08 2019-04-23 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9645709B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10222980B2 (en) 2015-03-19 2019-03-05 Apple Inc. Touch input cursor manipulation
US11550471B2 (en) 2015-03-19 2023-01-10 Apple Inc. Touch input cursor manipulation
US10599331B2 (en) 2015-03-19 2020-03-24 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US11054990B2 (en) 2015-03-19 2021-07-06 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
WO2016151919A1 (en) * 2015-03-26 2016-09-29 株式会社ミスミグループ本社 Browsing assistance method for electronic book, and browsing assistance program
JPWO2016151919A1 (en) * 2015-03-26 2018-01-18 株式会社ミスミグループ本社 E-book browsing support method and browsing support program
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US10705718B2 (en) 2015-06-07 2020-07-07 Apple Inc. Devices and methods for navigating between user interfaces
US11681429B2 (en) 2015-06-07 2023-06-20 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10841484B2 (en) 2015-06-07 2020-11-17 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11835985B2 (en) 2015-06-07 2023-12-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10455146B2 (en) 2015-06-07 2019-10-22 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9602729B2 (en) 2015-06-07 2017-03-21 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9706127B2 (en) 2015-06-07 2017-07-11 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9916080B2 (en) 2015-06-07 2018-03-13 Apple Inc. Devices and methods for navigating between user interfaces
US10303354B2 (en) 2015-06-07 2019-05-28 Apple Inc. Devices and methods for navigating between user interfaces
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10209884B2 (en) 2015-08-10 2019-02-19 Apple Inc. Devices, Methods, and Graphical User Interfaces for Manipulating User Interface Objects with Visual and/or Haptic Feedback
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10963158B2 (en) 2015-08-10 2021-03-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11182017B2 (en) 2015-08-10 2021-11-23 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10884608B2 (en) 2015-08-10 2021-01-05 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10162452B2 (en) 2015-08-10 2018-12-25 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US11327648B2 (en) 2015-08-10 2022-05-10 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10203868B2 (en) 2015-08-10 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10754542B2 (en) 2015-08-10 2020-08-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10698598B2 (en) 2015-08-10 2020-06-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11740785B2 (en) 2015-08-10 2023-08-29 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
JP2017084166A (en) * 2015-10-29 2017-05-18 シャープ株式会社 Information processing terminal
JP2018106766A (en) * 2018-04-09 2018-07-05 シャープ株式会社 Display device, information processing apparatus, image processing apparatus, and image forming apparatus

Similar Documents

Publication Publication Date Title
JP2011192215A (en) Device, method and program for inputting character
JP4364273B2 (en) Portable terminal device, display control method, and display control program
US20190369817A1 (en) Information processing apparatus
JP5894499B2 (en) Portable electronic device and input method
EP2860622B1 (en) Electronic device and controlling method and program therefor
US8896540B2 (en) Character input device and character input method
US9703418B2 (en) Mobile terminal and display control method
JP5753432B2 (en) Portable electronic devices
EP1980953B1 (en) Character input device
EP2282257B1 (en) Display apparatus, information input method and program
JP2011028679A (en) Image display apparatus
WO2012050153A1 (en) Portable electronic device, method of controlling same, and program
JP2012094008A (en) Portable electronic equipment
JP5679782B2 (en) Portable electronic device, screen control method, and screen control program
US20180232062A1 (en) Method and apparatus for operating optional key map of portable terminal
JP2011154573A (en) Portable electronic apparatus
US20230104250A1 (en) Application icon display method and apparatus, and electronic device
US20120139873A1 (en) Touch-controlled electronic apparatus and related control method
JP5037571B2 (en) Portable terminal device, display control method, and display control program
JP2013090242A (en) Mobile terminal device, program, and execution restraint method
JP2012018697A (en) Portable terminal device, display control method, and display control program
JP2011060166A (en) Portable terminal device
JP2015002520A (en) Character input device
JP5042385B2 (en) Portable terminal device, display control method, and display control program
JP2011164953A (en) Mobile electronic device and display control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140722

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150603

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150611

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20150814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160428