專利名稱:學(xué)習(xí)設(shè)備、學(xué)習(xí)方法和程序的制作方法
技術(shù)領(lǐng)域:
本發(fā)明涉及一種學(xué)習(xí)設(shè)備、學(xué)習(xí)方法和程序,并且具體而言涉及一種 能夠獲得具有可擴(kuò)展性和泛化能力的模式學(xué)習(xí)模型的學(xué)習(xí)設(shè)備、學(xué)習(xí)方法 和程序。
背景技術(shù):
對(duì)模式進(jìn)行學(xué)習(xí)的模式學(xué)習(xí)模型例如可以是RNN (遞歸神經(jīng)網(wǎng)絡(luò))、 RNNPB (具有參數(shù)偏離的遞歸神經(jīng)網(wǎng)絡(luò))等。這些模式學(xué)習(xí)模型的學(xué)習(xí) 方案被分類成"局部表示"方案和"分布表示"方案。
在"局部表示"方案中,在各自學(xué)習(xí)模式學(xué)習(xí)模型(更新模式學(xué)習(xí)模型 的模型^:)的多個(gè)學(xué)習(xí)模塊中的各學(xué)習(xí)模塊中學(xué)習(xí)多個(gè)模式。因此,一 個(gè)學(xué)習(xí)模塊存儲(chǔ)一個(gè)模式。
此夕卜,在"分布表示"方案中,在一個(gè)學(xué)習(xí)模塊中學(xué)習(xí)多個(gè)模式。因此, 一個(gè)學(xué)習(xí)模塊同時(shí)存儲(chǔ)多個(gè)模式。
在"局部表示,,方案中, 一個(gè)學(xué)習(xí)模塊存儲(chǔ)一個(gè)模式,也就是說(shuō), 一個(gè) 模式學(xué)習(xí)模型學(xué)習(xí)一個(gè)模式。因此,在一個(gè)學(xué)習(xí)模塊與另一學(xué)習(xí)模塊之間
的模式記憶中存在小的干涉,并且模式記憶穩(wěn)定性高。于是"局部表示"
方案可擴(kuò)展性優(yōu)良,即有可能通過(guò)添加學(xué)習(xí)模塊而容易地學(xué)習(xí)新模式。
然而,在"局部表示,,方案中, 一個(gè)模式學(xué)習(xí)模型學(xué)習(xí)一個(gè)模式,也就 是說(shuō),在多個(gè)學(xué)習(xí)模塊中的各學(xué)習(xí)模塊中獨(dú)立地進(jìn)行模式記憶。因此,難 以通過(guò)構(gòu)造(共用)多個(gè)學(xué)習(xí)模塊的相應(yīng)模式記憶之間的關(guān)系來(lái)獲得泛化 能力,也就是說(shuō),例如難以生成所謂中間模式,該中間模式與存儲(chǔ)于一個(gè) 學(xué)習(xí)模塊中的模式不同并且也與存儲(chǔ)于另 一學(xué)習(xí)模塊中的模式不同。
另一方面,在"分布表示"方案中, 一個(gè)學(xué)習(xí)模塊存儲(chǔ)多個(gè)模式,也就 是說(shuō), 一個(gè)模式學(xué)習(xí)模型學(xué)習(xí)多個(gè)模式。因此,由于一個(gè)學(xué)習(xí)模塊中多個(gè) 模式的記憶之間的干涉而有可能通過(guò)共用多個(gè)模式的記憶來(lái)獲得泛化能 力。然而,在"分布表示"方案中,模式記憶穩(wěn)定性低,因而沒(méi)有可擴(kuò)展性。
這里,日本待審專利申請(qǐng)公開(kāi)第2002-024795號(hào)描述了基于兩個(gè)RNN 的背景之間的誤差來(lái)改變兩個(gè)RNN的背景,其中一個(gè)RNN學(xué)習(xí)一個(gè)模 式而另一RNN學(xué)習(xí)與該模式相關(guān)的另一模式以進(jìn)行RNN的學(xué)習(xí),并且 所學(xué)習(xí)的兩個(gè)RNN的背景之一用作另一 RNN的背景,也就是說(shuō),使RNN 之一的背景影響另一 RNN的背景以生成輸出數(shù)據(jù)(將輸入數(shù)據(jù)輸入到 RNN的輸入層,并且從RNN的輸出層輸出與輸入數(shù)據(jù)對(duì)應(yīng)的輸出數(shù)據(jù))。
此夕卜,Yuuya Sugita、 Jun Tani在Adaptive Behavior第13巻第1期 第33-52頁(yè)(2005年)的"Learning Semantic Combinatoriality from the Interaction between Linguistic and Behavioral Processes,,描述了 RNNPB 通過(guò)基于兩個(gè)RNNPB的PB之差改變兩個(gè)RNNPB的PB來(lái)學(xué)習(xí),其中 一個(gè)RNNPB學(xué)習(xí)語(yǔ)言模式而另一 RNNPB學(xué)習(xí)行為模式,并且使所學(xué)習(xí) 的兩個(gè)RNNPB的PB之一影響另一 PB以生成輸出數(shù)據(jù)。
發(fā)明內(nèi)容
如上所述,在現(xiàn)有模式學(xué)習(xí)模型的學(xué)習(xí)中,有可能獲得具有可擴(kuò)展性 的模式學(xué)習(xí)模型或者具有泛化能力的模式學(xué)習(xí)模型;然而難以同時(shí)獲得既 具有可擴(kuò)展性又具有泛化能力的模式學(xué)習(xí)模型。
希望能夠同時(shí)獲得既具有可擴(kuò)展性又具有泛化能力的模式學(xué)習(xí)模型。
根據(jù)本發(fā)明的一個(gè)實(shí)施例, 一種學(xué)習(xí)設(shè)備包括多個(gè)學(xué)習(xí)模塊,各學(xué) 習(xí)模塊使用輸入數(shù)據(jù)來(lái)進(jìn)行更新學(xué)習(xí)以對(duì)模式學(xué)習(xí)模型的多個(gè)模型參數(shù) 進(jìn)行更新,該模式學(xué)習(xí)模型對(duì)模式進(jìn)行學(xué)習(xí);模型參數(shù)共享裝置,用于使 多個(gè)學(xué)習(xí)模塊之中的兩個(gè)或者更多學(xué)習(xí)模塊共享模型參數(shù);模塊創(chuàng)建裝
置,用于在提供用于學(xué)習(xí)模式的新學(xué)習(xí)數(shù)據(jù)作為輸入數(shù)據(jù)時(shí)創(chuàng)建與新學(xué)習(xí) 數(shù)據(jù)對(duì)應(yīng)的新學(xué)習(xí)模塊;相似度評(píng)估裝置,用于在對(duì)包括新學(xué)習(xí)模塊的所 有學(xué)習(xí)模塊進(jìn)行更新學(xué)習(xí)之后評(píng)估學(xué)習(xí)模塊之間的相似度;以及模塊合成 裝置,用于基于學(xué)習(xí)模塊之間的相似度來(lái)確定是否合成學(xué)習(xí)模塊并且合成 學(xué)習(xí)模塊。
^L據(jù)本發(fā)明的另一實(shí)施例, 一種學(xué)習(xí)方法包括以下步驟在多個(gè)學(xué)習(xí) 模塊中的各學(xué)習(xí)模塊中使用輸入數(shù)據(jù)來(lái)進(jìn)行更新學(xué)習(xí),以更新對(duì)模式進(jìn)行 學(xué)習(xí)的模式學(xué)習(xí)模型的多個(gè)模型參數(shù);使多個(gè)學(xué)習(xí)模塊之中的兩個(gè)或者更 多學(xué)習(xí)模塊共享模型^t;在提供用于學(xué)習(xí)模式的新學(xué)習(xí)數(shù)據(jù)作為輸入數(shù)據(jù)時(shí)創(chuàng)建與新學(xué)習(xí)數(shù)據(jù)對(duì)應(yīng)的新學(xué)習(xí)模塊;在對(duì)包括新學(xué)習(xí)模塊的所有學(xué) 習(xí)模塊進(jìn)行更新學(xué)習(xí)之后,評(píng)估學(xué)習(xí)模塊之間的相似度;并且基于學(xué)習(xí)模 塊之間的相似度來(lái)確定是否合成學(xué)習(xí)模塊并且合成學(xué)習(xí)模塊。
根據(jù)本發(fā)明的又一實(shí)施例, 一種用于使計(jì)算機(jī)作為以下模塊和裝置來(lái) 工作的程序多個(gè)學(xué)習(xí)模塊,各學(xué)習(xí)模塊使用輸入數(shù)據(jù)來(lái)進(jìn)行更新學(xué)習(xí)以 更新對(duì)模式進(jìn)行學(xué)習(xí)的模式學(xué)習(xí)模型的多個(gè)模型參數(shù);模型參數(shù)共享裝 置,用于使多個(gè)學(xué)習(xí)模塊之中的兩個(gè)或者更多學(xué)習(xí)模塊共享模型M;模 塊創(chuàng)建裝置,用于在提供用于對(duì)模式進(jìn)行學(xué)習(xí)的新學(xué)習(xí)數(shù)據(jù)作為輸入數(shù)據(jù) 時(shí)創(chuàng)建與新學(xué)習(xí)數(shù)據(jù)對(duì)應(yīng)的新學(xué)習(xí)模塊;相似度評(píng)估裝置,用于在對(duì)包括
新學(xué)習(xí)模塊的所有學(xué)習(xí)模塊進(jìn)行更新學(xué)習(xí)之后評(píng)估學(xué)習(xí)模塊之間的相似 度;以及模塊合成裝置,用于基于學(xué)習(xí)模塊之間的相似度來(lái)確定是否合成 學(xué)習(xí)模塊并且合成學(xué)習(xí)模塊。
在本發(fā)明的實(shí)施例中,在多個(gè)學(xué)習(xí)模塊中的各學(xué)習(xí)模塊中使用輸入數(shù) 據(jù)來(lái)進(jìn)行更新學(xué)習(xí)以更新對(duì)模式進(jìn)行學(xué)習(xí)的模式學(xué)習(xí)模型的多個(gè)模型參 數(shù),并且在多個(gè)學(xué)習(xí)模塊之中的兩個(gè)或者更多學(xué)習(xí)模塊之間共享模型參 數(shù)。此外,當(dāng)提供用于學(xué)習(xí)模式的新學(xué)習(xí)數(shù)據(jù)作為輸入數(shù)據(jù)時(shí),創(chuàng)建與新 學(xué)習(xí)數(shù)據(jù)對(duì)應(yīng)的新學(xué)習(xí)模塊,并且對(duì)包括新學(xué)習(xí)模塊的所有學(xué)習(xí)模塊進(jìn)行 更新學(xué)習(xí)。此后,評(píng)估學(xué)習(xí)模塊之間的相似度,并且基于學(xué)習(xí)模塊之間的 相似度來(lái)確定是否合成學(xué)習(xí)模塊,然后合成學(xué)習(xí)模塊。
圖1是示出了學(xué)習(xí)設(shè)備的一個(gè)實(shí)施例的配置例子的框圖,該學(xué)習(xí)設(shè)備 M用本發(fā)明實(shí)施例的基本學(xué)習(xí)設(shè)備;
圖2是圖示了圖l中所示學(xué)習(xí)設(shè)備的學(xué)習(xí)過(guò)程的流程圖3是示出了當(dāng)利用RNNPB作為模式學(xué)習(xí)模型時(shí)圖1中所示學(xué)習(xí)設(shè)
備的配置例子的框圖4是圖示了當(dāng)利用RNNPB作為模式學(xué)習(xí)模型時(shí)圖1中所示學(xué)習(xí)設(shè) 備的學(xué)習(xí)過(guò)程的流程圖5是示出了仿真結(jié)果的視圖6是示出了仿真結(jié)果的視圖7是示出了仿真結(jié)果的視8是示出了仿真結(jié)果的視圖9A至9E是示出了仿真中所用時(shí)間序列數(shù)據(jù)的視圖10是示意性示出了共享各RNNPB的模型^lt的視圖11是示意性示出了"局部表示,,方案、"分布表示"方案和"中間表 示,,方案之間關(guān)系的視圖12是示出了應(yīng)用本發(fā)明實(shí)施例的學(xué)習(xí)設(shè)備的 一個(gè)實(shí)施例的配置例 子的才匡圖13是圖示了圖12中所示學(xué)習(xí)設(shè)備的附加學(xué)習(xí)過(guò)程的流程圖; 圖14是圖示了圖13的合成過(guò)程的流程圖15是圖示了當(dāng)利用RNN作為模式學(xué)習(xí)模型時(shí)圖13的合成過(guò)程的 流程圖16是概念上示出了添加新學(xué)習(xí)模塊的過(guò)程的視圖17是概念上示出了合成學(xué)習(xí)模塊的過(guò)程的視圖18是示出了根據(jù)本發(fā)明一個(gè)實(shí)施例的計(jì)算機(jī)的配置例子的框圖。
具體實(shí)施例方式
圖1是學(xué)習(xí)設(shè)備的一個(gè)實(shí)施例的配置例子,其是應(yīng)用本發(fā)明實(shí)施例的 學(xué)習(xí)設(shè)備的基礎(chǔ)。
如圖1中所示,學(xué)習(xí)設(shè)備由多個(gè)(N個(gè))學(xué)習(xí)模塊l(h到IOn和模型 參數(shù)共享單元20組成。
各學(xué)習(xí)模塊10i (i=l、 2.....N)由模式輸入單元lli、模型學(xué)習(xí)單
元12 i和模型存儲(chǔ)單元13 i組成,并且使用輸入數(shù)據(jù)來(lái)進(jìn)行更新學(xué)習(xí)以更 新模式學(xué)習(xí)模型的多個(gè)模型參數(shù)(學(xué)習(xí)資源)。
也就是說(shuō),向各模式輸入單元lli提供模式(類別)的輸入數(shù)據(jù),輸 入數(shù)據(jù)是由存儲(chǔ)于模型存儲(chǔ)單元13 i中的模式學(xué)習(xí)模型作為用于學(xué)習(xí)模式 學(xué)習(xí)模型的學(xué)習(xí)數(shù)據(jù)而獲取(學(xué)習(xí))的。
模式輸入單元11 i將向其提供的學(xué)習(xí)數(shù)據(jù)轉(zhuǎn)換成格式適于學(xué)習(xí)模式學(xué) 習(xí)模型的數(shù)據(jù),然后將數(shù)據(jù)提供給模型學(xué)習(xí)單元12i。也就是說(shuō),例如當(dāng) 學(xué)習(xí)數(shù)據(jù)是時(shí)間序列數(shù)據(jù)時(shí),模式輸入單元lli例如按固定長(zhǎng)度分離時(shí)間序列數(shù)據(jù),然后將分離的時(shí)間序列數(shù)據(jù)提供給模型學(xué)習(xí)單元12i。
模型學(xué)習(xí)單元12 i使用M式輸入單元11 i提供的學(xué)習(xí)數(shù)據(jù)來(lái)進(jìn)行更 新學(xué)習(xí),以更新模型存儲(chǔ)單元13;中存儲(chǔ)的模式學(xué)習(xí)模型的多個(gè)模型參數(shù)。
模型存儲(chǔ)單元13 i具有多個(gè)模型參數(shù)并且存儲(chǔ)對(duì)模式進(jìn)行學(xué)習(xí)的模式 學(xué)習(xí)模型。也就是說(shuō),模型存儲(chǔ)單元13i存儲(chǔ)模式學(xué)習(xí)模型的多個(gè)模型參 數(shù)。
這里,模式學(xué)習(xí)模型例如可以利用一種對(duì)時(shí)間序列模式或者動(dòng)態(tài)性進(jìn)
行學(xué)習(xí)(獲取)(存儲(chǔ))的模型等,該時(shí)間序列模式是時(shí)間序列模式,該 動(dòng)態(tài)性^表隨時(shí)間改變的動(dòng)態(tài)系統(tǒng)。
對(duì)時(shí)間序列模式進(jìn)行學(xué)習(xí)的模型例如是HMM(隱馬可夫模型)等, 而對(duì)動(dòng)態(tài)性進(jìn)行學(xué)習(xí)的模型是神經(jīng)網(wǎng)絡(luò),比如RNN、 FNN(前饋神經(jīng)網(wǎng) 絡(luò))和RNNPB或者SVR (支持向量回歸)等。
例如,對(duì)HMM而言,表明狀態(tài)在HMM中進(jìn)行轉(zhuǎn)移的概率的狀態(tài) 轉(zhuǎn)移概率、以M明從HMM輸出觀測(cè)值的概率的輸出概率或者表明在 狀態(tài)進(jìn)行轉(zhuǎn)移時(shí)的概率密度的輸出概率密度函lblHMM的模型^。
此外,例如對(duì)神經(jīng)網(wǎng)絡(luò)而言,分配給從其他單元至與神經(jīng)元對(duì)應(yīng)的單 元(節(jié)點(diǎn))的輸入的權(quán)重是神經(jīng)網(wǎng)絡(luò)的模型^t。
注意HMM存在多于一個(gè)的狀態(tài)轉(zhuǎn)移概率、輸出概率或者輸出概率 密度函數(shù),神經(jīng)網(wǎng)絡(luò)存在多于一個(gè)的權(quán)重。
模型參數(shù)共享單元20進(jìn)行共享過(guò)程以使N個(gè)學(xué)習(xí)模塊10i到10N中 的兩個(gè)或者更多學(xué)習(xí)模塊共享模型M。由于模型參數(shù)共享單元20進(jìn)行 共享過(guò)程,所以N個(gè)學(xué)習(xí)模塊l(h到10N中的兩個(gè)或者更多學(xué)習(xí)模塊共享 模型沐
注意下文為了易于描述,模型M共享單元20進(jìn)行共享過(guò)程以使所 有N個(gè)學(xué)習(xí)模塊l(h到10n共享模型M。
接著將參照?qǐng)D2中所示流程圖描述圖1中所示學(xué)習(xí)設(shè)備對(duì)模式學(xué)習(xí)模 型進(jìn)行學(xué)習(xí)的學(xué)習(xí)過(guò)程。
在步驟Sll中,各學(xué)習(xí)模塊10i的模型學(xué)習(xí)單元12i例如通過(guò)隨機(jī)數(shù) 等來(lái)初始化模型存儲(chǔ)單元13i中存儲(chǔ)的模型^t,然后該過(guò)程繼續(xù)到步驟 S12。
在步驟S12中,學(xué)習(xí)模塊10i等待直至提供將由學(xué)習(xí)模塊10i學(xué)習(xí)的學(xué)習(xí)數(shù)據(jù),然后使用學(xué)習(xí)數(shù)據(jù)來(lái)進(jìn)行更新學(xué)習(xí)以更新模型^t。
也就是說(shuō),在步驟S12中,在學(xué)習(xí)模塊10i中,模式輸入單元lli在 必要時(shí)處理向?qū)W習(xí)模塊10i提供的學(xué)習(xí)數(shù)據(jù),然后將學(xué)習(xí)數(shù)據(jù)提供給模型 學(xué)習(xí)單元12i。
另外,在步驟S12中,模型學(xué)習(xí)單元12i使用M式輸入單元llj提 供的學(xué)習(xí)數(shù)據(jù)來(lái)進(jìn)行更新學(xué)習(xí),以更新模型存儲(chǔ)單元13i中存儲(chǔ)的模式學(xué) 習(xí)模型的多個(gè)模型M,然后利用通過(guò)更新學(xué)習(xí)所獲得的多個(gè)新模型^lt 更新(重寫(xiě))模型存儲(chǔ)單元13j中存儲(chǔ)的內(nèi)容。
在此,在所有N個(gè)學(xué)習(xí)模塊l(h到10N中進(jìn)行步驟Sll和S12中的過(guò)程。
在步驟S12之后,該過(guò)程繼續(xù)到步驟S13,然后模型參數(shù)共享單元 20進(jìn)行共享過(guò)程以使所有N個(gè)學(xué)習(xí)模塊l(h到10n共享模型參數(shù)。
也就是說(shuō),當(dāng)例如關(guān)注學(xué)習(xí)模塊10i的多個(gè)模型^lt之中的第m個(gè)模 型M時(shí),模型^lt共享單元20基于N個(gè)學(xué)習(xí)模塊l(h到ION的相應(yīng)的 第m個(gè)模型參數(shù)來(lái)校正學(xué)習(xí)模塊l(h的第m個(gè)模型錄。
另外,模型M共享單元20基于N個(gè)學(xué)習(xí)模塊l(h到ION的相應(yīng)的 第m個(gè)模型^來(lái)校正學(xué)習(xí)模塊102的第m個(gè)模型M, ^類似地校 正學(xué)習(xí)模塊103到ION的相應(yīng)的第m個(gè)模型^lt。
如上所述,模型^lt共享單元20基于N個(gè)學(xué)習(xí)模塊l(h到IOn的相 應(yīng)的第m個(gè)模型參數(shù)來(lái)校正學(xué)習(xí)模塊10i的第m個(gè)模型^lt。因此,N 個(gè)學(xué)習(xí)模塊l(h到10N的各相應(yīng)的第m個(gè)模型^!t受N個(gè)學(xué)習(xí)模塊l(h到 10w的所有相應(yīng)的第m個(gè)模型^影響(N個(gè)學(xué)習(xí)*^ l(h到IOn的所有 第m個(gè)模型參數(shù)影響N個(gè)學(xué)習(xí)模塊l(h到10N的各第m個(gè)模型^lt )。
以此方式,多個(gè)學(xué)習(xí)模塊的所有模型M影響多個(gè)學(xué)習(xí)模塊中的各模 型參數(shù)(多個(gè)學(xué)習(xí)模塊的各模型參數(shù)受多個(gè)學(xué)習(xí)模型的所有模型參數(shù)影 響)。這是為了在多個(gè)學(xué)習(xí)模塊之間共享模型M。
在步驟S13中,模型參數(shù)共享單元20對(duì)存儲(chǔ)于學(xué)習(xí)模塊10i的模型 存儲(chǔ)單元13i中的所有多個(gè)模型^t執(zhí)行共享過(guò)程,然后使用通過(guò)共享過(guò) 程獲得的模型參數(shù)來(lái)更新模型存儲(chǔ)單元"到13N中存儲(chǔ)的內(nèi)容。
在步驟S13之后,該過(guò)程繼續(xù)到步驟S14,然后圖1中所示學(xué)習(xí)設(shè)備 確定是否滿足學(xué)習(xí)終止4Ht 。
10這里,步驟S14中的學(xué)習(xí)終止^Hf例如可以是當(dāng)學(xué)習(xí)次數(shù)、即重復(fù)步 驟S12和S13的次數(shù)達(dá)到預(yù)定次數(shù)時(shí)、當(dāng)使用所有預(yù)備的學(xué)習(xí)數(shù)據(jù)來(lái)進(jìn)行 步驟S12中的更新學(xué)習(xí)時(shí)、或者當(dāng)在已經(jīng)獲得針對(duì)輸入數(shù)據(jù)而要輸出的輸 出數(shù)據(jù)的真值的情況下針對(duì)輸入數(shù)據(jù)從模式學(xué)習(xí)模型輸出的輸出數(shù)據(jù)相 對(duì)于該真值的誤差小于或者等于預(yù)定值時(shí)。
在步驟S14中,當(dāng)確定沒(méi)有滿足學(xué)習(xí)終止M時(shí),該過(guò)程返回到步驟 S12, 1^重復(fù)相同過(guò)程。
此外,在步驟S14中,當(dāng)確定滿足學(xué)習(xí)終止IHf時(shí),該過(guò)程結(jié)束。
注意可以逆序地進(jìn)行步驟S12和步驟S13的過(guò)程。也就是說(shuō),可 適用的是,在進(jìn)行共享過(guò)程以使所有N個(gè)學(xué)習(xí)模塊1(K到10n共享模型參 數(shù)之后進(jìn)行更新學(xué)習(xí)以更新模型參數(shù)。
接著圖3示出了當(dāng)利用RNNPB作為模式學(xué)習(xí)模型時(shí)圖1中所示學(xué)習(xí) i更備的配置例子。
注意在圖3中沒(méi)有示出各學(xué)習(xí)模塊10i的模式輸入單元lli和模型 學(xué)習(xí)單元12i。
各模型存儲(chǔ)單元13j存儲(chǔ)RNNPB (限定RNNPB的模型參數(shù))。此后, 在適當(dāng)時(shí)將模型存儲(chǔ)單元13i中存儲(chǔ)的RNNPB稱為RNNPB弁i。
各RNNPB由輸入層、隱藏層(中間層)和輸出層組成。輸入層、隱 藏層和輸出層分別由與神經(jīng)元對(duì)應(yīng)的所選數(shù)目的單元組成。
在各RNNPB中,將輸入數(shù)據(jù)xt如時(shí)間序列數(shù)據(jù)輸入(提供)到輸入 單元,這些輸入單元是輸入層的部分單元。這里,輸入數(shù)據(jù)Xt例如可以 是圖像或者音頻的特征量、與機(jī)器人的手部或者足部對(duì)應(yīng)的部分的運(yùn)動(dòng)軌 跡等。
此外,PB (參數(shù)偏離)輸入到PB單元,這些PB單元是輸入層的、 與輸入數(shù)據(jù)xt向其輸入的輸入單元不同的部分單元。利用PB,即使當(dāng)將 相同輸入數(shù)據(jù)xt輸入到相同狀態(tài)的RNNPB時(shí),仍然可以通過(guò)改變PB來(lái) 獲得不同輸出婆:據(jù)x +h
將從輸出層的部分單元輸出的輸出數(shù)據(jù)反饋到背景單元作為表明內(nèi) 部狀態(tài)的背景,這些背景單元是輸入層的、與輸入數(shù)據(jù)Xt向其輸入的輸 入單元不同的剩余的單元。 這里,當(dāng)在時(shí)間t的輸入數(shù)據(jù)Xt被輸入到輸入層的輸入單元時(shí)向輸入層的PB單元和背景單元輸入的在時(shí)間t的PB和背景分別由PBt和ct表 示。
隱藏層的單元使用向輸入層輸入的針對(duì)輸入數(shù)據(jù)xt、 PBt和背景ct的 預(yù)定權(quán)重來(lái)進(jìn)行加權(quán)加法、計(jì)算使用加權(quán)加法的結(jié)果作為自變量的非線性 函數(shù),然后將計(jì)算的結(jié)果輸出到輸出層的單元。
如上所述,在下一時(shí)間t+1的背景ct+1的輸出數(shù)據(jù)從輸出層的部分單 元被輸出并且^L^饋到輸入層。此外,例如從輸出層的剩余的單元輸出輸 入數(shù)據(jù)Xt在下一時(shí)間t+1的輸入數(shù)據(jù)xt+1的預(yù)測(cè)值x +1,作為與輸入數(shù)據(jù)
Xt對(duì)應(yīng)的輸出數(shù)據(jù)。
這里,在各RNNPB中,對(duì)于至各單元的輸入進(jìn)行加權(quán)加法,并且用 于加權(quán)加法的權(quán)重是RNNPB的模型參數(shù)。使用五類權(quán)重作為RNNPB的 模型M。權(quán)重包括從輸入單元到隱藏層的單元的權(quán)重、從PB單元到 隱藏層的單元的權(quán)重、從背景單元到隱藏層的單元的權(quán)重、從隱藏層的單 元到輸出層的單元的權(quán)重和從隱藏層的單元到背景單元的權(quán)重。
當(dāng)利用上述RNNPB作為模式學(xué)習(xí)模型時(shí),模型>#*共享單元20包 括權(quán)重矩陣共享單元21,該權(quán)重矩陣共享單元使學(xué)習(xí)模塊l(h到IOn共享 用作各RNNPB的模型M的權(quán)重。
這里,多個(gè)權(quán)重作為各RNNPB的模型參數(shù)而存在,并且包括多個(gè)權(quán) 重作為元素的矩陣稱為權(quán)重矩陣。
權(quán)重矩陣共享單元21使學(xué)習(xí)模塊l(h到lOw共享所有權(quán)重矩陣,這些 權(quán)重矩陣是RNNPB針到RNNPB#N的多個(gè)模型^lt并且分別存儲(chǔ)于模型 存儲(chǔ)單元13i到13N中。
也就是說(shuō),如果RNNPB射的權(quán)重矩陣由Wi表示,則權(quán)重矩陣共享單 元21基于相應(yīng)N個(gè)學(xué)習(xí)模塊l(h到lOw的所有權(quán)重矩陣Wi到Wn來(lái)校正
權(quán)重矩陣Wi,由此進(jìn)行共享過(guò)程以使所有權(quán)重矩陣Wi到WN影響權(quán)重矩 陣Wi。
具體而言,權(quán)重矩陣共享單元21例如根據(jù)以下方程(1)來(lái)校正 RNNPB#i的權(quán)重矩陣Wj:
Wj = Wi + Aw! …(1)
這里,在方程(l)中,Awi是用來(lái)校正權(quán)重矩陣Wj的校正分量并且 例如根據(jù)方程(2 )來(lái)獲得<formula>formula see original document page 13</formula>
在方禾i(2)中,Py表示如下系數(shù),該系絲明RNNPB#j(j=l、 2.....
N)的各權(quán)重矩陣Wj影響RNNPB射的權(quán)重矩陣Wi的程度。
因此,方程(2)中右側(cè)求和SPij (w廠Wi)表示在使用系數(shù)pij作為 權(quán)重的情況下RNNPB#1到RNNPB#N的i目應(yīng)權(quán)重矩陣Wi到WN相一于權(quán) 重矩陣Wi的誤差(差量)的加權(quán)平均值,而Oi表示如下系數(shù),該系lt^ 明加權(quán)平均值i:Pij (Wj-Wi)影響權(quán)重矩陣Wi的程度。
系數(shù)Oi和Pij例如可以大于0.0且小于1.0。
根據(jù)方程(2),隨著Oi系數(shù)減少,共享變得更弱(權(quán)重矩陣Wi受到 的加權(quán)平均值Sfe (w廠Wi)的影響減少),而隨著Oi系數(shù)增加,共享變得 更強(qiáng)。
注意校正權(quán)重矩陣Wi的方法不限于方程(1)并且例如可以根據(jù)方 程(3)來(lái)進(jìn)行<formula>formula see original document page 13</formula>
這里在方程(3) +', p,ij表示如下系數(shù),該系數(shù)表明RNNPB弁j (j=l, 2,…,N)的各權(quán)重矩陣Wj影響RNNPB射的權(quán)重矩陣Wi的程度。
因此,方程(3)中右側(cè)第二項(xiàng)求和i:Pij,Wj表示在使用系數(shù)(3,ij作為 權(quán)重的情況下,RNNPB#1到RNNPB#N的相應(yīng)權(quán)重矩陣wj,J WN的加權(quán) 平均值,而a,i表示如下系數(shù),該系數(shù)表明加權(quán)平均值SpijVj影響權(quán)重矩 陣Wi的程度。
系數(shù)a,i和p、例如可以大于0.0且小于1.0。
根據(jù)方程(3),隨著a,i系數(shù)增加,共享變得更弱(權(quán)重矩陣,受到 的加權(quán)平均值SPij,Wj的影響減少),而隨著a,i系數(shù)減少,共享變得更強(qiáng)。
接著將參照?qǐng)D4的流程圖來(lái)描述當(dāng)利用RNNPB作為模式學(xué)習(xí)模型時(shí) 圖1中所示學(xué)習(xí)設(shè)備的學(xué)習(xí)過(guò)程。
在步驟S21中,各學(xué)習(xí)模塊10i的模型學(xué)習(xí)單元12i例如通過(guò)隨機(jī)數(shù) 等來(lái)初始化具有在模型存儲(chǔ)單元U中存儲(chǔ)的RNNPB#i的模型^lt的權(quán) 重矩陣Wi,然后該過(guò)程繼續(xù)到步驟S22。
在步驟S22中,學(xué)習(xí)模塊10i等待直至輸入將由學(xué)習(xí)模塊10i學(xué)習(xí)的
學(xué)習(xí)數(shù)據(jù)Xt,然后使用學(xué)習(xí)數(shù)據(jù)Xt來(lái)進(jìn)行更新學(xué)習(xí)以更新模型M。也就是說(shuō),在步驟S22中,在學(xué)習(xí)模塊10i中,模式輸入單元lli在 必要時(shí)處理向?qū)W習(xí)模塊10i提供的學(xué)習(xí)數(shù)據(jù)xt,然后將學(xué)習(xí)數(shù)據(jù)xt提供給 模型學(xué)習(xí)單元12i。
另外,在步驟S22中,模型學(xué)習(xí)單元12j使用g式輸入單元lli提 供的學(xué)習(xí)數(shù)據(jù)xt借助例如BPTT (時(shí)間反向傳播)方法進(jìn)行更新學(xué)習(xí)以更 新模型存儲(chǔ)單元13i中存儲(chǔ)的RNNPB射的權(quán)重矩陣Wi,然后利用具有通 過(guò)更新學(xué)習(xí)獲得的新模型參數(shù)的權(quán)重矩陣Wi來(lái)更新模型存儲(chǔ)單元13i中存 儲(chǔ)的內(nèi)容。
這里,在所有N個(gè)學(xué)習(xí)模塊l(h到10N中進(jìn)行步驟S21和S22中的過(guò)程。
此外,例如在日4^降審專利申請(qǐng)公開(kāi)第2002-236卯4號(hào)等中描述了 BPTT方法。
在步驟S22之后,該過(guò)程繼續(xù)到步驟S23,然后模型參數(shù)共享單元 20的權(quán)重矩陣共享單元21進(jìn)行共享過(guò)程以使所有N個(gè)學(xué)習(xí)模塊10!到10N 共享所有權(quán)重矩陣Wi到wN。
也就是說(shuō),在步驟S23中,權(quán)重矩陣共享單元21例如使用模型存儲(chǔ) 單元13!到13N中分別存儲(chǔ)的權(quán)重矩陣Wl到wN,以根據(jù)方程(2 )來(lái)計(jì)算 校正分量Awi到AwN,然后根據(jù)方程(1)使用校正分量Awi到AwN來(lái)校正 模型存儲(chǔ)單元13i到13N中分別存儲(chǔ)的權(quán)重矩陣Wl到wN。
在步驟S23之后,該過(guò)程繼續(xù)到步驟S24,然后圖1中所示學(xué)習(xí)設(shè)備 確定是否滿足學(xué)習(xí)終止!Ht 。
這里,步驟S24中的學(xué)習(xí)終止^Ht例如可以是當(dāng)學(xué)習(xí)次數(shù)、也就是 說(shuō)重復(fù)步驟S22和S23的次數(shù)達(dá)到預(yù)定次數(shù)時(shí),或者當(dāng)針對(duì)輸入數(shù)據(jù)xt 從RNNPB弁i輸出的輸出數(shù)據(jù)x\+1 (也就是說(shuō)輸入數(shù)據(jù)xt+1的預(yù)測(cè)值x +1) 相對(duì)于輸入數(shù)據(jù)xt+1的誤差小于或者等于預(yù)定值時(shí)。
在步驟S24中,當(dāng)確定沒(méi)有滿足學(xué)習(xí)終止條件時(shí),該過(guò)程返回到步驟 S22,隨后重復(fù)相同過(guò)程,也就是交替地重復(fù)權(quán)重矩陣Wi的更新學(xué)習(xí)和共 享過(guò)程。
此外,在步驟S24中,當(dāng)確定滿足學(xué)習(xí)終止4Hf時(shí),該過(guò)程結(jié)束。 注意在圖4中也可以逆序地進(jìn)行步驟S22和步驟S23的過(guò)程。 如上所述,在可擴(kuò)展性優(yōu)良的多個(gè)學(xué)習(xí)模塊l(h到ION中的各學(xué)習(xí)模塊中,在進(jìn)行更新學(xué)習(xí)以更新多個(gè)學(xué)習(xí)模塊l(h到ION中的各學(xué)習(xí)模塊的 模型M之時(shí)共享模型參數(shù)。因此,通it^僅僅一個(gè)學(xué)習(xí)模塊中的學(xué)習(xí)獲
得的泛化能力可以被所有多個(gè)學(xué)習(xí)模塊l(h到10n荻得。結(jié)果,有可能同
時(shí)獲得具有可擴(kuò)展性和泛化能力的模式學(xué)習(xí)模型。
也就是說(shuō),可以獲取(存儲(chǔ))大量模式,并且可以獲取多個(gè)模式的共 性。另夕卜,通過(guò)獲取多個(gè)模式的共性,有可能基于共性來(lái)識(shí)別或者生成未 學(xué)習(xí)的模式。
具體而言,例如當(dāng)將N類音素的音頻數(shù)據(jù)作為學(xué)習(xí)數(shù)據(jù)提供給N個(gè) 學(xué)習(xí)模塊l(h到ION中的各學(xué)習(xí)模塊,并且進(jìn)行模式學(xué)習(xí)模型的學(xué)習(xí)時(shí), 模式學(xué)習(xí)模型能夠識(shí)別或者生成沒(méi)有用于學(xué)習(xí)的時(shí)間序列模式的音頻數(shù) 據(jù)。另外,例如在將用于驅(qū)動(dòng)機(jī)器人臂部的N類驅(qū)動(dòng)數(shù)據(jù)作為學(xué)習(xí)數(shù)據(jù) 提供給N個(gè)學(xué)習(xí)模塊1(K到ION中的各學(xué)習(xí)模塊,并且進(jìn)行模式學(xué)習(xí)模型 的學(xué)習(xí)時(shí),模式學(xué)習(xí)模型能夠生成沒(méi)有用于學(xué)習(xí)的時(shí)間序列模式驅(qū)動(dòng)數(shù) 據(jù),結(jié)果機(jī)器人能夠進(jìn)行未傳授的臂部動(dòng)作。
此外,所學(xué)習(xí)的模式學(xué)習(xí)模型能夠基于模式學(xué)習(xí)模型的模型^lt(資 源)之間的距離來(lái)評(píng)估模式學(xué)習(xí)模型之間的相似度,并且將模式聚集為各 自包括相似度高的模式學(xué)習(xí)模型的聚類。
接著將參照?qǐng)D5至圖9E描述由發(fā)明人實(shí)施的對(duì)圖1中所示學(xué)習(xí)設(shè)備 進(jìn)行的學(xué)習(xí)過(guò)程(下文在適當(dāng)時(shí)稱為共享學(xué)習(xí)過(guò)程)的仿真結(jié)果。
圖5示出了與在共享學(xué)習(xí)過(guò)程中進(jìn)行學(xué)習(xí)的模式學(xué)習(xí)模型有關(guān)的多 條數(shù)據(jù)。
注意在仿真中利用其中兩個(gè)PB輸入到輸入層而三個(gè)背景反饋到輸 入層的九個(gè)RNNPB弁1到RNNPB弁9作為模式學(xué)習(xí)模型,并且使用作為學(xué) 習(xí)數(shù)據(jù)通過(guò)在三個(gè)模式P#l、 P#2和P#3的時(shí)間序列數(shù)據(jù)上疊加三個(gè)不同 噪聲N#l、 N#2和N#3而獲得的九條時(shí)間序列數(shù)據(jù)。
此外,通過(guò)在模式P#l的時(shí)間序列數(shù)據(jù)上疊加噪聲N#l獲得的時(shí)間 序列數(shù)據(jù)作為學(xué)習(xí)數(shù)據(jù)提供給RNNPB弁1,通過(guò)在模式P弁1的時(shí)間序列數(shù) 據(jù)上疊加噪聲N#2獲得的時(shí)間序列數(shù)據(jù)作為學(xué)習(xí)數(shù)據(jù)提供給RNNPB弁2, 而通過(guò)在模式P#l的時(shí)間序列數(shù)據(jù)上疊加噪聲N#3獲得的時(shí)間序列數(shù)據(jù) 作為學(xué)習(xí)數(shù)據(jù)提供給RNNPB#3 。
類似地,通過(guò)在模式P#2的時(shí)間序列數(shù)據(jù)上疊加噪聲N#l獲得的時(shí) 間序列數(shù)據(jù)作為學(xué)習(xí)數(shù)據(jù)提供給RNNPB弁4,通it^模式P弁2的時(shí)間序列數(shù)據(jù)上疊加噪聲N#2獲得的時(shí)間序列數(shù)據(jù)作為學(xué)習(xí)數(shù)據(jù)提供給 RNNPB#5,而通it^模式P#2的時(shí)間序列數(shù)據(jù)上疊加噪聲N#3獲得的時(shí) 間序列數(shù)據(jù)作為學(xué)習(xí)數(shù)據(jù)提供給RNNPB弁6。此外,通過(guò)在模式P弁3的時(shí) 間序列數(shù)據(jù)上疊加噪聲N#l獲得的時(shí)間序列數(shù)據(jù)作為學(xué)習(xí)數(shù)據(jù)供給 RNNPB#7,通過(guò)在模式P弁3的時(shí)間序列數(shù)據(jù)上疊加噪聲N弁2獲得的時(shí)間 序列數(shù)據(jù)作為學(xué)習(xí)數(shù)據(jù)提供給RNNPB弁8,而通過(guò)在模式P弁3的時(shí)間序列 數(shù)據(jù)上疊加噪聲N#3獲得的時(shí)間序列數(shù)據(jù)作為學(xué)習(xí)數(shù)據(jù)提供給 RNNPB#9。
注意進(jìn)行更新學(xué)習(xí)以便減少輸入數(shù)據(jù)xt+1 (該輸入數(shù)據(jù)是針對(duì)輸入 數(shù)據(jù)xt從各RNNPB輸出的輸出數(shù)據(jù))的預(yù)測(cè)值x;相對(duì)于輸入數(shù)據(jù)xt+1 的誤差(預(yù)測(cè)誤差)。
圖5中所示最上一行示出了當(dāng)在學(xué)習(xí)時(shí)提供的學(xué)習(xí)數(shù)據(jù)作為輸入數(shù) 據(jù)提供給所學(xué)習(xí)的RNNPB#1到RNNPB#9時(shí)從RNNPB弁1到RNNPB#9 分別輸出的輸出數(shù)據(jù)和輸出數(shù)據(jù)的預(yù)測(cè)誤差。
在圖5中的最上一行中,預(yù)測(cè)誤差幾乎為零,因而RNNPB#1到 RNNPB弁9輸出輸入數(shù)據(jù),也就是說(shuō)與在學(xué)習(xí)時(shí)提供的學(xué)習(xí)數(shù)據(jù)基本上一 致的輸出數(shù)據(jù)。
圖5中從上數(shù)的第二行示出了當(dāng)所學(xué)習(xí)的RNNPB#1到RNNPB#9輸 出圖5中最上一行中所示輸出數(shù)據(jù)時(shí)三個(gè)背景隨時(shí)間的變化。
此外,圖5中從上數(shù)的第三行示出當(dāng)學(xué)習(xí)的RNNPB#1到RNNPB弁9 輸出圖5中所示最上一行中所示輸出數(shù)據(jù)時(shí)兩個(gè)PB2(下文在適當(dāng)時(shí)將兩 個(gè)PB2分別稱為PB#1和PB#2 )隨時(shí)間的變^ffc。
圖6示出了例如從所學(xué)習(xí)的RNNPB#1到RNNPB#9之中的第五 RNNPB弁5向備度的PB#1和PB#2輸出的輸出翁:據(jù)。
注意在圖6中橫坐標(biāo)軸代表PB針,而縱坐標(biāo)軸代表PB弁2。
根據(jù)圖6, RNNPB弁5在PB弁1約為0.6時(shí)輸出與在學(xué)習(xí)時(shí)提供的學(xué)習(xí) 數(shù)據(jù)基本上一致的輸出數(shù)據(jù)。因此,發(fā)現(xiàn)RNNPB弁5具有在學(xué)習(xí)時(shí)提供的 學(xué)習(xí)數(shù)據(jù)的模式P#2。
此外,RNNPB#5在PB#1小于0.6時(shí)輸出與RNNPB#1到RNNPB弁3 所學(xué)習(xí)的模式P#l和與RNNPB弁7到RNNPB#9所學(xué)習(xí)的模式PB#3相似 的時(shí)間序列數(shù)據(jù)。因此,發(fā)現(xiàn)RNNPB#5受到RNNPB弁1到RNNPB#3所 獲取的模式P#l的影響 者RNNPB#7到RNNPB#9所獲取的模式P#3的影響,并且也具有如下中間模式,當(dāng)在學(xué)習(xí)時(shí)提供給RNNPB弁5的學(xué)習(xí) 數(shù)據(jù)的模式P#2朝著RNNPB#1到RNNPB#3所獲取的模式P#l或者 RNNPB#7到RNNPB#9所獲取的模式P#3變形(deform)時(shí)出現(xiàn)該中間 模式。
另外,RNNPB#5在PB#1大于0.6時(shí)輸出未被九個(gè)RNNPB#1到 RNNPB # 9中的任一個(gè)學(xué)習(xí)的模式的時(shí)間序列數(shù)據(jù)。因此,發(fā)現(xiàn)RNNPB#5 受到RNNPB#1到RNNPB#3所獲取的模式P#l的影響或者RNNPB#7到 RNNPB弁9所獲取的模式P弁3的影響,并且也具有如下模式當(dāng)在學(xué)習(xí)時(shí) 提供給RNNPB弁5的學(xué)習(xí)數(shù)據(jù)的模式P#2朝著與RNNPB#1到RNNPB#3 所獲取的模式P#l相反的一側(cè)或者與RNNPB#7到RNNPB#9所獲取的模 式P#3相反的一側(cè)變形時(shí)出現(xiàn)該模式。
接著,圖7示出了如下矩形映射,這些矩形映射表明相應(yīng)九個(gè) RNNPB弁1到RNNPB#9的權(quán)重矩陣之間的相關(guān)度距離,也就是例如如下 向量之間的距離,這些向量具有構(gòu)成向量空間中的各權(quán)重矩陣的權(quán)重。
注意隨著權(quán)重矩陣之間的距離減少,這兩個(gè)權(quán)重矩陣之間的相關(guān)度 變得更高。
在圖7的映射中,橫坐標(biāo)軸和縱坐標(biāo)軸均代表相應(yīng)九個(gè)RNNPB#1到 RNNPB#9的權(quán)重矩陣。橫坐標(biāo)軸中的權(quán)重矩陣與縱坐標(biāo)軸中的權(quán)重矩陣 之間的距離由淺色和深色表示。更深色(黑色)部分表明距離更小(更淺 色(白色)部分表明距離更大)。
在圖7中,在水平五個(gè)而豎直三個(gè)的映射之中,左上方映射表明當(dāng)學(xué) 習(xí)次數(shù)是0時(shí)權(quán)重矩陣之間的距離,也就是說(shuō)初始化的權(quán)重矩陣之間的距 離,并且在映射中,只有在相同RNNPB弁i的布置于對(duì)角線中的權(quán)重矩陣 之間的多巨離是小的。
此后,圖7示出了當(dāng)學(xué)習(xí)隨著它向右和向下逸艮時(shí)的映射,并且右下 方映射表明當(dāng)學(xué)習(xí)次lbi 1400時(shí)權(quán)重矩陣之間的距離。
根據(jù)圖7發(fā)現(xiàn)隨著學(xué)習(xí)選艮,已經(jīng)學(xué)習(xí)相同模式P#l的時(shí)間序列數(shù) 據(jù)的RNNPB#1到RNNPB弁3的權(quán)重矩陣之間的距離、已經(jīng)學(xué)習(xí)相同模式 P#2的時(shí)間序列數(shù)據(jù)的RNNPB#4到RNNPB#6的權(quán)重矩陣之間的距離和 已經(jīng)學(xué)習(xí)相同模式P#3的時(shí)間序列數(shù)據(jù)的RNNPB弁7到RNNPB#9的權(quán)重 矩陣之間的距離變小。
圖8示出了與圖7的映射相似的映射,這些映射表明RNNPB的權(quán)重矩陣之間的相關(guān)度距離,RNNPB已經(jīng)學(xué)習(xí)了與圖5至圖7的情況下的時(shí) 間序列數(shù)據(jù)不同的時(shí)間序列數(shù)據(jù)。
注意在用于創(chuàng)建圖8的映射的仿真中,預(yù)備了通過(guò)在圖9中所示五 類模式P弁1、 P#2、 P#3、 P弁4和P弁5的各條時(shí)間序列數(shù)據(jù)上疊加四個(gè)不同 噪聲N#l、 N#2、 N弁3和N弁4而獲得的二十條時(shí)間序列數(shù)據(jù),并且使一個(gè) RNNPB學(xué)習(xí)這些時(shí)間序列數(shù)據(jù)。因此,用于創(chuàng)建圖8的映射的仿真中所 用的RNNPB是20個(gè)RNNPB#1到RNNPB#20。
此外在學(xué)習(xí)時(shí),模式P#l的時(shí)間序列數(shù)據(jù)提供給RNNPB#1到 RNNPB#4,模式P#2的時(shí)間序列數(shù)據(jù)提供給RNNPB#5到RNNPB#8, 模式P#3的時(shí)間序列數(shù)據(jù)提供給RNNPB#9到RNNPB#12,模式P#4的 時(shí)間序列數(shù)據(jù)提供給RNNPB#13到RNNPB#16,模式P#5的時(shí)間序列數(shù) 據(jù)提供給RNNPB#17到RNNPB#20。
圖8中左側(cè)5x3個(gè)映射示出了當(dāng)共享為弱、也就是說(shuō)所有20個(gè)權(quán)重 矩陣到w20影響20個(gè)RNNPB#1到RNNPB#20的各權(quán)重矩陣w丄到w20 的程度小時(shí),具體而言當(dāng)方程(2)的系數(shù)Oi為小時(shí)(當(dāng)cti基本上為0時(shí)) 的映射。
此外,圖8中右側(cè)5x3個(gè)映射示出了當(dāng)共享為強(qiáng)、也就另j兌所有20 個(gè)權(quán)重矩陣wj!l w加對(duì)20個(gè)RNNPB#1到RNNPB#20的各權(quán)重矩陣w丄 到w加的影響程度大時(shí)、具體而言當(dāng)方程(1)的系數(shù)Oi并不小時(shí)的映射。
當(dāng)共享為弱時(shí)以及當(dāng)共享為強(qiáng)時(shí),僅M相同RNNPB弁i的布置于對(duì) 角線中的權(quán)重矩陣之間的距離在學(xué)習(xí)次數(shù)為零時(shí)在左上方映射中為小。
然后發(fā)現(xiàn)當(dāng)共享為弱時(shí)(如圖8中的左側(cè)所示),即4吏當(dāng)學(xué)習(xí)a 時(shí),權(quán)重矩陣之間的距離仍然沒(méi)有出現(xiàn)特定趨勢(shì),而當(dāng)共享為強(qiáng)時(shí)(如圖 8中的右側(cè)所示),權(quán)重矩陣之間的距離在已經(jīng)學(xué)習(xí)相同模式的時(shí)間序列 數(shù)據(jù)的RNNPB之中為小。
因此發(fā)現(xiàn)通過(guò)共享過(guò)程,在多個(gè)學(xué)習(xí)模塊上形成分布表示,并且多 個(gè)RNNPB具有泛化能力。
注意模型學(xué)習(xí)單元12i對(duì)模型^lt的更新學(xué)習(xí)方法和模型M共享 單元20的共享過(guò)程方法不限于上述方法。
此外,在本實(shí)施例中,在模型^共享單元20的共享過(guò)程中,所有 N個(gè)學(xué)習(xí)模塊10i到10N共享作為模型^lt的權(quán)重矩陣;例如可替代地, N個(gè)學(xué)習(xí)模塊l(K到10N中的僅僅一部分可以共享作為模型參數(shù)的權(quán)重矩陣。
另外在本實(shí)施例中,在模型^共享單元20的共享過(guò)程中,學(xué)習(xí)模 塊10i共享作為多個(gè)模型參數(shù)、構(gòu)成各權(quán)重矩陣的多個(gè)權(quán)重;替代地在共 享過(guò)程中可以共享并非構(gòu)成各權(quán)重矩陣的所有多個(gè)權(quán)重而是構(gòu)成各權(quán)重 矩陣的多個(gè)權(quán)重之中的僅僅一部分權(quán)重。
此外,N個(gè)學(xué)習(xí)模塊l(h到ION中的僅僅一部分可以共享構(gòu)成各權(quán)重 矩陣的多個(gè)權(quán)重之中的僅僅一部分權(quán)重。
注意在圖l中所示學(xué)習(xí)設(shè)備中,模型^共享單元20使多個(gè)學(xué)習(xí) 模塊l(h到IOn共享模型M。也就是說(shuō),就相應(yīng)學(xué)習(xí)模塊l(K到IOn中 RNNPB#1到RNNPB#N的權(quán)重矩陣Wn到Wn對(duì)各學(xué)習(xí)模塊10i中的權(quán)重 矩陣Wi (該權(quán)重矩陣具有作為模式學(xué)習(xí)模型的RNNPB#i的模型M)的 影響而言,圖1中所示學(xué)習(xí)設(shè)備1類似于在日本待審專利申請(qǐng)公開(kāi)第 2002-024795號(hào)中描述的技術(shù),在該技術(shù)中在學(xué)習(xí)RNN時(shí),基于兩個(gè)RNN 的背景的誤差來(lái)改變兩個(gè)RNN的背景,也就^li兌,兩個(gè)RNN的背景影 響各RNN的背景。
然而,在圖1中所示學(xué)習(xí)設(shè)備中影響具有模型M的權(quán)重矩陣,這不 同于在日4^#審專利申請(qǐng)公開(kāi)第2002-024795號(hào)中描述的技術(shù),在該技術(shù) 中沒(méi)有影響模型W:而是影響作為內(nèi)部狀態(tài)的背景。
也就是說(shuō),當(dāng)例如取得由函lt^達(dá)的模式學(xué)習(xí)模型時(shí),模式學(xué)習(xí)模型 的模型參數(shù)是通過(guò)學(xué)習(xí)獲得的并且對(duì)表i^式學(xué)習(xí)模型的函數(shù)進(jìn)行限定 的常數(shù)(例如當(dāng)取得輸入u、輸出y、內(nèi)部狀態(tài)x以及由y-Cx + Du和 x,=Ax + Bu (x,表示x的導(dǎo)數(shù))分別表達(dá)的模型系統(tǒng)狀態(tài)方程)時(shí),A、 B、 C和D對(duì)應(yīng)于常數(shù)),并且常數(shù)不同于原先并不是恒定的內(nèi)部狀態(tài)(在 狀態(tài)方程的例子中為內(nèi)部狀態(tài)x )。
類似地,就相應(yīng)學(xué)習(xí)模塊l(h到10N中RNNPB#1到RNNPB#N的權(quán) 重矩陣w到Wn影響各學(xué)習(xí)模塊10i中的權(quán)重矩陣Wi (該權(quán)重矩陣具有作 為模式學(xué)習(xí)模型的RNNPB#i的模型M)而言,圖1中所示學(xué)習(xí)設(shè)備l 類似于在Yuuya Sugita、 Jim Tani在Adaptive Behavior第13巻第1期第 33-52頁(yè)(2005年)的"Learning Semantic Combinatoriality from the Interaction between Linguistic and Behavioral Processes"中描述的技術(shù), 該技術(shù)在學(xué)習(xí)RNNPB時(shí)基于兩個(gè)RNNPB的相應(yīng)PB之差來(lái)改變兩個(gè) RNNPB的各相應(yīng)PB,也就是說(shuō),兩個(gè)RNNPB的相應(yīng)的PB影響RNNPB的^^相應(yīng)的PB。
然而,具有模型^t的權(quán)重矩陣受到影響的圖1中所示學(xué)習(xí)設(shè)備不同 于在Yuuya Sugita、 Jun Tani在Adaptive Behavior第13巻第1期第33-52 頁(yè)(2005年)的"Learning Semantic Combinatoriality from the Interaction between Linguistic and Behavioral Processes"中描述的技術(shù),在該技術(shù)中 沒(méi)有影響模型參數(shù)而是影響作為內(nèi)部狀態(tài)(或者與內(nèi)部狀態(tài)對(duì)應(yīng))的PB。
也就是說(shuō),如上所述,模式學(xué)習(xí)模型的模型^tA通過(guò)學(xué)習(xí)獲得的并 且對(duì)表i^式學(xué)習(xí)模型的函數(shù)進(jìn)行限定的常數(shù)并且不同于并非常數(shù)的內(nèi) 部狀態(tài)。
模型參數(shù)是通過(guò)學(xué)習(xí)獲得的并且對(duì)表i^式學(xué)習(xí)模型的函數(shù)進(jìn)行限 定的常數(shù)。因此在學(xué)習(xí)時(shí)更新(改變)模型M以便變成與待學(xué)習(xí)的模式 對(duì)應(yīng)的值;然而,當(dāng)生成輸出數(shù)據(jù)時(shí)(當(dāng)將輸入數(shù)據(jù)輸入到作為模式學(xué)習(xí) 模型的RNNPB的輸入層,而從RNNPB的輸出層輸出與輸入數(shù)據(jù)對(duì)應(yīng)的 輸出數(shù)據(jù)時(shí))沒(méi)有改變模型參數(shù)。
另一方面,在日本待審專利申請(qǐng)公開(kāi)第2002-024795號(hào)中描述的技術(shù) 所關(guān)注的背景和Yuuya Sugita、 Jun Tani在Adaptive Behavior第13巻第 1期第33-52頁(yè)(2005年)的"Learning Semantic Combinatoriality from the Interaction between Linguistic and Behavioral Processes"中描述的技術(shù)所 關(guān)注的PB是與模型^lt不同的內(nèi)部狀態(tài),因而它們當(dāng)然可以在學(xué)習(xí)時(shí)以 及在生成輸出數(shù)據(jù)時(shí)改變。
如上所述,圖1中所示學(xué)習(xí)設(shè)備不同于在日^降審專利申請(qǐng)公開(kāi)第 2002-024795號(hào)中描述的技術(shù)和Yuuya Sugita、 Jim Tani在Adaptive Behavior第13巻第1期第33-52頁(yè)(2005年)的"Learning Semantic Combinatoriality from the Interaction between Linguistic and Behavioral Processes"中描述的技術(shù)中的任何技術(shù)。結(jié)果,有可能同時(shí)獲得具有可擴(kuò) 展性和泛化能力的模式學(xué)習(xí)模型。
也就是說(shuō),在圖l中所示學(xué)習(xí)設(shè)備中,例如如圖10中所示,共享模 式學(xué)習(xí)模型(如RNNPB)的相應(yīng)模型M。
結(jié)果,根據(jù)圖1中所示學(xué)習(xí)設(shè)備,如圖11中所示,進(jìn)行所謂"中間表 示"方案的學(xué)習(xí),該方案具有可擴(kuò)展性優(yōu)良但是缺乏泛化能力的"局部表 示"方案和具有泛化能力但是缺乏可擴(kuò)展性的"分布表示"方案的優(yōu)點(diǎn)。因 此有可能同時(shí)獲得具有可擴(kuò)展性和泛化能力的模式學(xué)習(xí)模型。附帶提及一點(diǎn),當(dāng)學(xué)習(xí)設(shè)備由N個(gè)學(xué)習(xí)模塊l(h到ION組成時(shí),存在 難以確定是否可能有必要添加新學(xué)習(xí)模塊的問(wèn)題。
也就是說(shuō),當(dāng)提供新學(xué)習(xí)數(shù)據(jù)(學(xué)習(xí)樣本)時(shí),所提供的學(xué)習(xí)數(shù)據(jù)類 似于由現(xiàn)有模式學(xué)習(xí)模型已經(jīng)學(xué)習(xí)的時(shí)間序列模式。因此,難以確定對(duì)現(xiàn) 有N個(gè)學(xué)習(xí)模塊l(h到10N中的任一學(xué)習(xí)模塊進(jìn)行更新學(xué)習(xí)是否足夠或者 是否添加新學(xué)習(xí)模塊進(jìn)行學(xué)習(xí),因?yàn)樾聦W(xué)習(xí)數(shù)據(jù)并不類似于由N個(gè)學(xué)習(xí) 模塊W到10N已經(jīng)學(xué)習(xí)的任何時(shí)間序列模式。
可擴(kuò)展性優(yōu)良的并且在必要時(shí)添加學(xué)習(xí)模塊進(jìn)行學(xué)習(xí)的模塊學(xué)習(xí)例 如利用如下方法,在該方法中新學(xué)習(xí)模塊相對(duì)于現(xiàn)有學(xué)習(xí)模塊的新異性由 數(shù)值表達(dá),并且當(dāng)新學(xué)習(xí)模塊的由數(shù)值表達(dá)的新異性超過(guò)預(yù)定閾值時(shí),添 加該新學(xué)習(xí)模塊。
然而在上述方法中難以設(shè)置用于確定是否添加學(xué)習(xí)模塊的參照。如果 設(shè)置M,則有如下問(wèn)題本來(lái)應(yīng)當(dāng)由各單獨(dú)學(xué)習(xí)模塊學(xué)習(xí)的學(xué)習(xí)數(shù)據(jù)由 單個(gè)學(xué)習(xí)模塊學(xué)習(xí),或者反言之,應(yīng)當(dāng)由單個(gè)學(xué)習(xí)模塊學(xué)習(xí)的學(xué)習(xí)數(shù)據(jù)由
各單獨(dú)學(xué)習(xí)模塊學(xué)習(xí)。
然后下文通過(guò)借助于利用相似模型參數(shù)通過(guò)用于模型參數(shù)的上述共 享過(guò)程來(lái)減少其間距離這一特性將描述如下實(shí)施例,在該實(shí)施例中無(wú)需確 定是否添加學(xué)習(xí)模塊、有可能通過(guò)添加學(xué)習(xí)模塊來(lái)進(jìn)行學(xué)習(xí)(附加學(xué)習(xí)) 并且也有可能抑制不必要的學(xué)習(xí)模塊的數(shù)目增加。
圖12是示出了應(yīng)用了本發(fā)明一個(gè)實(shí)施例的學(xué)習(xí)設(shè)備的一個(gè)實(shí)施例的 配置例子的框圖。
在圖12中,相似參考數(shù)字表示與圖1中所示學(xué)習(xí)設(shè)備的部件對(duì)應(yīng)的 部件,并且省略其描述。
也就是說(shuō),圖12中所示學(xué)習(xí)設(shè)備101由配置與圖1中所示學(xué)習(xí)設(shè)備 相似的模式學(xué)習(xí)單元111和用于管理學(xué)習(xí)模塊的學(xué)習(xí)模塊管理單元112組 成。
模式學(xué)習(xí)單元in使用數(shù)目由學(xué)習(xí)模塊管理單元112控制的N個(gè)學(xué)習(xí) 模塊l(h到ION進(jìn)行更新學(xué)習(xí),以學(xué)習(xí)(更新)各模式學(xué)習(xí)模型的多個(gè)模 型M (學(xué)習(xí)資源)。
學(xué)習(xí)模塊管理單元112由模塊創(chuàng)建單元121、相似度評(píng)估單元122和 模塊合成單元123組成,并且控制模式學(xué)習(xí)單元111的學(xué)習(xí)模塊l(h到10N 的數(shù)目(N)。模塊創(chuàng)建單元121在新學(xué)習(xí)數(shù)據(jù)被提供給學(xué)習(xí)設(shè)備101的模式學(xué)習(xí)單 元111時(shí)無(wú)!Hf地創(chuàng)建(添加)與模式學(xué)習(xí)單元111中的新學(xué)習(xí)數(shù)據(jù)對(duì)應(yīng) 的新學(xué)習(xí)模塊。
相似度評(píng)估單元122評(píng)估模式學(xué)習(xí)單元111的學(xué)習(xí)模塊之間的相似 度。學(xué)習(xí)模塊之間的相似度的評(píng)估例如可以使用學(xué)習(xí)模塊的模型M之間 的歐幾里德距離(下文稱為^UE巨離)。
具體而言,可以使用方程(4)來(lái)計(jì)算學(xué)習(xí)模塊l(K與學(xué)習(xí)模塊102 之間的^UI巨離D錄(1, 2)。注意方程U)中的k是用于標(biāo)識(shí)學(xué)習(xí) 模塊l(h和102的模型M的變量,并且例如Pl, k表示學(xué)習(xí)模塊10i的第k (k《Q)個(gè)模型械。
D參數(shù)d,2),(P"2'k)2 …(4)
如果模k^學(xué)習(xí)模型具有低冗余度使得用于時(shí)間序列模式的模式學(xué)習(xí) 模型的模型^被唯一地確定,則有可能容易地想象將^^JE巨離用來(lái)評(píng)估 模式學(xué)習(xí)模型的相似度。然而,例如在冗余度高的模式學(xué)習(xí)模型如神經(jīng)網(wǎng)
(RNN)中,它具有這樣的特性,即,使得參數(shù)距離由于上述共享學(xué)習(xí) 過(guò)程而在學(xué)習(xí)相似時(shí)間序列模式的學(xué)習(xí)模塊之間減少,以允許^UE巨離用 于評(píng)估模式學(xué)習(xí)模型的相似度。
模塊合成單元123基于相似度評(píng)估單元122獲得的學(xué)習(xí)模塊之間相似 度來(lái)確定是否合成學(xué)習(xí)模塊。然后,當(dāng)確定有可以合成的學(xué)習(xí)模塊時(shí),模 塊合成單元123合成這些學(xué)習(xí)模塊。
接著,將參照?qǐng)D13的流程圖描述附加學(xué)習(xí)過(guò)程,該附加學(xué)習(xí)過(guò)程是 借助圖12中所示學(xué)習(xí)設(shè)備101與學(xué)習(xí)模塊的添加相伴隨的學(xué)習(xí)。
當(dāng)新學(xué)習(xí)數(shù)據(jù)提供給模式學(xué)習(xí)單元lll時(shí),在步驟S41中,模塊創(chuàng)建 單元121為模式學(xué)習(xí)單元U1中的新學(xué)習(xí)數(shù)據(jù)創(chuàng)建新學(xué)習(xí)模塊。此后,學(xué) 習(xí)模塊在添加新學(xué)習(xí)模塊之后的數(shù)目是N。
在步驟S42中,模式學(xué)習(xí)單元111對(duì)包括在步驟S41中的過(guò)程中所添 加的新學(xué)習(xí)模塊在內(nèi)的學(xué)習(xí)模塊執(zhí)行學(xué)習(xí)過(guò)程。學(xué)習(xí)過(guò)程類似于參照?qǐng)D2 描述的學(xué)習(xí)過(guò)程,因而省略其描述。
在步驟S43中,學(xué)習(xí)模塊管理單元112進(jìn)行合成過(guò)程以基于學(xué)習(xí)模塊 之間的相似度來(lái)合成學(xué)習(xí)模塊。隨后將參照?qǐng)D14描述合成過(guò)程的細(xì)節(jié)。 在步驟S44中確定是否有新學(xué)習(xí)數(shù)據(jù),也就是說(shuō)在向模式學(xué)習(xí)單元lll提供的學(xué)習(xí)數(shù)據(jù)中是否有未被執(zhí)行學(xué)習(xí)過(guò)程的學(xué)習(xí)數(shù)據(jù)。當(dāng)確定有新
學(xué)習(xí)數(shù)據(jù)時(shí),該過(guò)程返回到步驟S41并且重復(fù)步驟S41到S44中的過(guò)程。 另一方面,當(dāng)確定沒(méi)有新學(xué)習(xí)數(shù)據(jù)時(shí),附加學(xué)習(xí)過(guò)程結(jié)束。
接著,將參照?qǐng)D14的流程圖描述圖13的步驟S43中的合成過(guò)程的細(xì)節(jié)。
在合成過(guò)程中,首先在步驟S61中,相似度評(píng)估單元122評(píng)估學(xué)習(xí)模 塊之間的相似度。也就是說(shuō),相似度評(píng)估單元122針對(duì)N個(gè)學(xué)習(xí)模塊l(h 到10w的所有組合來(lái)獲得學(xué)習(xí)模塊之間的^l^巨離。
在步驟S62中,模塊合成單元123基于由相似度評(píng)估單元122獲得的 學(xué)習(xí)模塊之間的相似度(學(xué)習(xí)模塊之間的參彭巨離)來(lái)確定是否有待合成 的學(xué)習(xí)模塊。具體而言,模塊合成單元123當(dāng)在步驟S61中獲得的>|^巨 離小于預(yù)定闊值D 值時(shí)識(shí)別出具有該參彭巨離的兩個(gè)學(xué)習(xí)模塊是待合成 的學(xué)習(xí)模塊,然后確定有待合成的學(xué)習(xí)模塊。
在步驟S62中,當(dāng)確定有待合成的學(xué)習(xí)模塊時(shí),該過(guò)程繼續(xù)到步驟 S63,并iM^塊合成單元123合成被確定為待合成的學(xué)習(xí)模塊。具體而言, 模塊合成單元123計(jì)算進(jìn)行合成的兩個(gè)學(xué)習(xí)模塊的模型^lt的平均值,并 且將所計(jì)算的平均值設(shè)置為在合成之后將留存的學(xué)習(xí)模塊的模型^*,然 后M式學(xué)習(xí)單元111丟棄另 一學(xué)習(xí)模塊。
注意由于合成尚未充分學(xué)習(xí)的學(xué)習(xí)模塊是不恰當(dāng)?shù)模钥赡苡斜?要在檢驗(yàn)被確定為待合成的學(xué)習(xí)模塊已經(jīng)充分地學(xué)習(xí)之后來(lái)合成學(xué)習(xí)模 塊。為了確定進(jìn)行合成的兩個(gè)學(xué)習(xí)模塊是否已經(jīng)充分地學(xué)習(xí),只需檢驗(yàn)被 確定為待合成的兩個(gè)學(xué)習(xí)模塊的學(xué)習(xí)得分是否大于或者等于表明充分學(xué) 習(xí)狀態(tài)的預(yù)定閾值,或者在^r驗(yàn)學(xué)習(xí)模塊的學(xué)習(xí)得分大于或者等于預(yù)定闊 值之后確定學(xué)習(xí)模塊之間的相似度。
另一方面,在步驟S62中,當(dāng)確定沒(méi)有待合成的學(xué)習(xí)模塊時(shí),跳過(guò)步 驟S63中的過(guò)程,并且合成過(guò)程結(jié)束(返回到圖13的附加學(xué)習(xí)過(guò)程)。
接著,將描述其中利用RNN被用作為模式學(xué)習(xí)模型的情況。RNN 與RNNPB不同在于,輸入層沒(méi)有PB單元,并且除此之外可以與RNNPB 一樣進(jìn)行更新學(xué)習(xí)等。
當(dāng)利用RNN作為模式學(xué)習(xí)模型時(shí),示出了圖12中所示學(xué)習(xí)設(shè)備IOI 的配置例子的框圖為如圖3中所示地配置圖12中所示模式學(xué)習(xí)單元111 。 然而,圖3中的各RNNPB#i由沒(méi)有PB單元的RNN糾取代。此外,當(dāng)利用RNN作為模式學(xué)習(xí)模型時(shí)附加學(xué)習(xí)過(guò)程的流程圖是 由于在圖13的步驟S41中創(chuàng)建的學(xué)習(xí)模塊是RNN,所以步驟S42中的學(xué) 習(xí)過(guò)程將是其中RNNPB由RNN射取代的圖4的學(xué)習(xí)過(guò)程,而在步驟S43 中的合成過(guò)程將是圖15中所示過(guò)程。
然后,將參照?qǐng)D15的流程圖描述當(dāng)利用RNN作為模式學(xué)習(xí)模型時(shí) 圖13的步驟S43中的合成過(guò)程。
在步驟S81中,相似度評(píng)估單元122評(píng)估學(xué)習(xí)模塊之間的相似度。在 RNN中,權(quán)重對(duì)應(yīng)于模型參數(shù),因而相似度評(píng)估單元122利用權(quán)重矩陣 之間的歐幾里德距離(下文稱為權(quán)重距離)來(lái)評(píng)估RNN之間的相似度。
例如,當(dāng)RNN#1的權(quán)重矩陣Wi的權(quán)重分別是Wm(l《k《Q, la《R) 而RNN#2的權(quán)重矩陣w2的權(quán)重分別是w2, k,,時(shí),RNN#1與RNN#2之 間的權(quán)重距離D權(quán)重(1, 2)可以由方程(5)表達(dá)。
相似度評(píng)估單元122針對(duì)N個(gè)學(xué)習(xí)模塊l(h到10N (RNN#1到 RNN#N)的所有組合來(lái)獲得RNN之間的權(quán)重距離。
在步驟82中,模塊合成單元123基于相似度評(píng)估單元122獲得的RNN 之間的相似度來(lái)確定是否有待合成的學(xué)習(xí)模塊。也就是說(shuō),模塊合成單元 123當(dāng)在步驟S81中獲得的權(quán)重距離小于預(yù)定閾值D帳時(shí)識(shí)別具有該權(quán)重 距離的兩個(gè)學(xué)習(xí)模塊是待合成的學(xué)習(xí)模塊,然后確定有待合成的學(xué)習(xí)模 塊。
在步驟S82中,當(dāng)確定有待合成的學(xué)習(xí)模塊時(shí),該過(guò)程繼續(xù)到步驟 S83,并且模塊合成單元123合成被確定為待合成的學(xué)習(xí)模塊(RNN)。 具體而言,模塊合成單元123計(jì)算合成的兩個(gè)RNN的權(quán)重矩陣的平均值, 并且將所計(jì)算的平均值設(shè)置為在合成之后將留存的RNN的權(quán)重矩陣,然 后從模式學(xué)習(xí)單元111丟棄另一 RNN。
同樣地,當(dāng)模式學(xué)習(xí)模型是RNN時(shí),可能有必要檢驗(yàn)合成的兩個(gè) RNN是否已經(jīng)充分地學(xué)習(xí)。在RNN中,例如通過(guò)確定學(xué)習(xí)誤差是否小于 預(yù)定閾值來(lái)檢驗(yàn)RN已經(jīng)充分地學(xué)習(xí),然后合成兩個(gè)合成的RNN。
另一方面,在步驟S82中,當(dāng)確定沒(méi)有待合成的學(xué)習(xí)模塊時(shí),跳過(guò)步 驟S83中的過(guò)程,并且合成過(guò)程結(jié)束(返回到圖13的附加學(xué)習(xí)過(guò)程)。
圖16和圖17是概念上示出了由學(xué)習(xí)設(shè)備101進(jìn)行的附加學(xué)習(xí)過(guò)程的視圖。
圖16是概念上示出了如下過(guò)程的視圖,在該過(guò)程中為一個(gè)附加學(xué)習(xí) 過(guò)程提供一^f學(xué)習(xí)數(shù)據(jù),并且每當(dāng)進(jìn)行圖13的附加學(xué)習(xí)過(guò)程時(shí)模塊創(chuàng) 建單元121添加一個(gè)新學(xué)習(xí)模塊。
當(dāng)新學(xué)習(xí)數(shù)據(jù)DATi被提供給模式學(xué)習(xí)單元lll時(shí),執(zhí)行第一附加學(xué) 習(xí)過(guò)程,并且學(xué)習(xí)模塊創(chuàng)建單元121為學(xué)習(xí)數(shù)據(jù)DATi創(chuàng)建新學(xué)習(xí)模塊 10lo
接著,當(dāng)新學(xué)習(xí)數(shù)據(jù)DAT2被提供給模式學(xué)習(xí)單元111時(shí),執(zhí)行第二 附加學(xué)習(xí)過(guò)程,并且學(xué)習(xí)模塊創(chuàng)建單元121為學(xué)習(xí)數(shù)據(jù)DAT2創(chuàng)建新學(xué)習(xí) 模塊102。另外,當(dāng)新學(xué)習(xí)數(shù)據(jù)DAT3被提供給模式學(xué)習(xí)單元111時(shí),執(zhí) 行第三附加學(xué)習(xí)過(guò)程,并且學(xué)習(xí)模塊創(chuàng)建單元121為學(xué)習(xí)數(shù)據(jù)DAT3創(chuàng)建 新學(xué)習(xí)模塊103。接著類似地,當(dāng)新學(xué)習(xí)數(shù)據(jù)DATs被提供給模式學(xué)習(xí)單 元111時(shí),執(zhí)行第五附加學(xué)習(xí)過(guò)程,并且學(xué)習(xí)模塊創(chuàng)建單元121為學(xué)習(xí)數(shù) 據(jù)DAT5創(chuàng)建新學(xué)習(xí)模塊105。
在第一到第五附加學(xué)習(xí)過(guò)程中的各附加學(xué)習(xí)過(guò)程中,如參照?qǐng)D13所 述得,對(duì)包括所添加的學(xué)習(xí)模塊在內(nèi)的學(xué)習(xí)模塊執(zhí)行學(xué)習(xí)過(guò)程(步驟S42 中的過(guò)程),1^執(zhí)行合成過(guò)程(步驟S43中的過(guò)程)。
然后假設(shè)在第 一到第四附加學(xué)習(xí)過(guò)程中的各附加學(xué)習(xí)過(guò)程中確定沒(méi) 有待合成的學(xué)習(xí)模塊,然后在第五附加學(xué)習(xí)過(guò)程中確定有可能將學(xué)習(xí)模塊 1(h與學(xué)習(xí)模塊10s合成。
圖17是概念上示出了當(dāng)學(xué)習(xí)模塊l(h與學(xué)習(xí)模塊105合成時(shí)的過(guò)程的 視圖。
假設(shè)在第五附加學(xué)習(xí)過(guò)程中,當(dāng)在完成學(xué)習(xí)過(guò)程之后模塊合成單元 123基于相似度評(píng)估單元122獲得的學(xué)習(xí)模塊之間的相似度來(lái)確定是否有 待合成的學(xué)習(xí)模塊時(shí),確定結(jié)果表明有可能將學(xué)習(xí)模塊l(h與學(xué)習(xí)模塊105
合成。也就是說(shuō),該結(jié)果表明學(xué)習(xí)模塊10i與學(xué)習(xí)模塊105之間的^f^巨
離D錄(1, 5)小于閾值D閾值。
在此情況下,模塊合成單元123計(jì)算學(xué)習(xí)模塊l(h的模型^R和學(xué) 習(xí)模塊105的模型參數(shù)P5的平均值,并且將這些平均值設(shè)置為被合成的學(xué) 習(xí)模塊10i的模型參數(shù)P"然后M式學(xué)習(xí)單元111丟棄學(xué)習(xí)模塊105。
注意圖17示出了其中將學(xué)習(xí)模塊l(h和學(xué)習(xí)模塊105合成為一個(gè)學(xué) 習(xí)模塊l(h的例子;然而合成的學(xué)習(xí)模塊的數(shù)目不限于兩個(gè)。例如,當(dāng)確定三個(gè)學(xué)習(xí)模塊相對(duì)于彼此具有小于閾值D喊的^UE巨離時(shí),這三個(gè)學(xué) 習(xí)模塊可以合成為一個(gè)學(xué)習(xí)模塊。在此情況下,合成的學(xué)習(xí)模塊的模型參 數(shù)可以使用進(jìn)行合成的三個(gè)學(xué)習(xí)模塊的模型M的平均值。
圖17中所示學(xué)習(xí)模塊10i的模型^lt Pi代表方程(4)中的所有pi, i 到pi, q。模型參數(shù)R與模型^tP5之間的平均值意味著Pl, i與p5, i之間
的平均值、Pi, 2與p5, 2之間的平均值、PL 3與p5, 3之間的平均值、Pl, 4與 P5,4之間的平均值,…,以及貝,q與Ps,q之間的平均值在合成之后分別 設(shè)置為 Pl, 1, Pl, 2, Pl, 3, Pl, 4,…和Pl, q。注意可以將除了平均值之夕卜
的計(jì)算結(jié)果設(shè)置為在合成之后留存的學(xué)習(xí)模塊的模型^:。也就是說(shuō),有 可能通過(guò)除了求取多個(gè)進(jìn)行合成的學(xué)習(xí)模塊的模型參數(shù)的平均值之外的 計(jì)算來(lái)獲得在合成之后留存的學(xué)習(xí)模塊的模型M。
如上所述,根據(jù)圖12中所示學(xué)習(xí)設(shè)備101,有可能同時(shí)獲得既具有 可擴(kuò)展性又具有泛化能力的模式學(xué)習(xí)模型,并且當(dāng)提供新學(xué)習(xí)數(shù)據(jù)(學(xué)習(xí) 樣本)時(shí),模塊創(chuàng)建單元121針對(duì)新學(xué)習(xí)數(shù)據(jù)無(wú)M地創(chuàng)建(添加)新學(xué) 習(xí)模塊,因而無(wú)需確定是否添加學(xué)習(xí)模塊。此外,在學(xué)習(xí)(更新學(xué)習(xí))過(guò) 程之后合成相似度高的學(xué)習(xí)模塊,因而有可能抑制學(xué)習(xí)模塊數(shù)目的不必要 的增加。
注意當(dāng)響應(yīng)于向?qū)W習(xí)設(shè)備101提供的新學(xué)習(xí)數(shù)據(jù)來(lái)創(chuàng)建學(xué)習(xí)模塊 時(shí),所創(chuàng)建學(xué)習(xí)模塊的模型^lt的初始值可以是通過(guò)隨機(jī)數(shù)等確定的值或
者可以是現(xiàn)有的所有學(xué)習(xí)模塊的模型M的平均值。例如,與如在通過(guò)隨 機(jī)數(shù)等分配初始值的情況下分配初始值而不考慮現(xiàn)有學(xué)習(xí)模塊的模型參 數(shù)相比,當(dāng)分配現(xiàn)有的所有學(xué)習(xí)模塊的模型^t的平均值作為附加學(xué)習(xí)模 塊的模型M的初始值時(shí),附加學(xué)習(xí)模塊已經(jīng)具有由現(xiàn)有學(xué)習(xí)模塊所保持 的模式的共性。因此,有可能快速地進(jìn)行學(xué)習(xí)。
上述系列過(guò)程可以由硬件實(shí)施或者可以由軟件實(shí)施。當(dāng)該系列過(guò)程由 軟件執(zhí)行時(shí),將構(gòu)成軟件的程序安裝到通用計(jì)算機(jī)等中。
然后,圖18示出了其中安裝有執(zhí)行上述系列過(guò)程的程序的計(jì)算機(jī)的 一個(gè)實(shí)施例的配置例子。
程序可以預(yù)先記錄在計(jì)算機(jī)中提供的作為記錄介質(zhì)來(lái)工作的硬盤(pán) 205或者ROM 203中。 可替選地,程序可以暫時(shí)地或者持久地存儲(chǔ)(記錄)在可移動(dòng)的記錄 介質(zhì)2U中,比如軟盤(pán)、CD-ROM (光盤(pán)只讀存儲(chǔ)器)、MO (磁光)盤(pán)、DVD (數(shù)字通用盤(pán))、>^盤(pán)和半導(dǎo)#^儲(chǔ)器??梢蕴峁┥鲜隹梢苿?dòng)的記錄 介質(zhì)211作為所謂的包裝軟件。
注意程序不僅可以從上述可移動(dòng)的記錄介質(zhì)211安裝到計(jì)算機(jī)上, 而且可以通過(guò)用于數(shù)字衛(wèi)星廣播的衛(wèi)星從下載站點(diǎn)借助無(wú)線通信傳送到 計(jì)算機(jī)上或者通過(guò)網(wǎng)絡(luò)如LAN (局域網(wǎng))和因特網(wǎng)借助有線通信傳送到 計(jì)算機(jī)上,并且計(jì)算機(jī)可以接收由通信單元208以該方式傳送的程序以將 程序安裝到內(nèi)部^: 205上。
計(jì)算機(jī)包括CPU (中央處理單元)202。輸X/輸出接口 212經(jīng)由總線 201連接到CPU202。當(dāng)通過(guò)由用戶借助于輸V輸出接口 210操作的由鍵 盤(pán)、鼠標(biāo)、麥克風(fēng)等組成的輸入單元207來(lái)輸入命令時(shí),CPU202根據(jù)用 戶的操作來(lái)執(zhí)行ROM(只讀存儲(chǔ)器)203中存儲(chǔ)的程序??商孢x地,CPU 202將^Jt205中存儲(chǔ)的程序(從衛(wèi)星或者網(wǎng)絡(luò)傳送的由通信單元208接 收的并且然后安裝到^Jt 205上的程序,或者從安裝在驅(qū)動(dòng)器209上的可 移動(dòng)記錄^h質(zhì)211讀取的并且然后安裝到硬盤(pán)205上的程序)加載到RAM (隨M取存儲(chǔ)器)204上,然后執(zhí)行該程序。因此,CPU202進(jìn)行根據(jù) 上述流程圖的過(guò)程或者進(jìn)行由上述框圖中所示配置進(jìn)4亍的過(guò)程。然后, CPU 202在必要時(shí)通過(guò)輸>^/輸出接口 210從由例如LCD (液晶顯示器)、 揚(yáng)聲器等組成的輸出單元206輸出處理結(jié)果,或者從通信單元208發(fā)送處 理結(jié)果,然后在硬盤(pán)205中記錄該處理結(jié)果。
這里,在說(shuō)明書(shū)中對(duì)用于使計(jì)算機(jī)執(zhí)行各種處理的程序進(jìn)行描述的過(guò) 程步驟沒(méi)有必要以按照如流程圖所描述的順序的時(shí)間序列來(lái)處理,而是也 包括并行或者單獨(dú)執(zhí)行的過(guò)程(例如并行過(guò)程或者使用對(duì)象的過(guò)程)。
此外,程序可以由單個(gè)計(jì)算機(jī)處理或者可以進(jìn)行由多個(gè)計(jì)算機(jī)執(zhí)行的 分布式處理。另外,程序可以傳送到遠(yuǎn)程計(jì)算機(jī),然后加以執(zhí)行。
此夕卜,本發(fā)明的實(shí)施例不限于上述實(shí)施例,并且可以修改成各種形式 而不脫離4^發(fā)明的范圍。
也就是說(shuō),本發(fā)明的實(shí)施例并非專用于某一具體空間模式以及時(shí)間序 列序列和模式的方法。因此,本發(fā)明的實(shí)施例可以應(yīng)用于基于對(duì)如下內(nèi)容 的學(xué)習(xí)和學(xué)習(xí)結(jié)果來(lái)對(duì)模式進(jìn),測(cè)或分類通過(guò)計(jì)算機(jī)用戶接口的用戶
輸入、機(jī)器人的傳感器輸入和電機(jī)輸出的模式、與音樂(lè)數(shù)據(jù)有關(guān)的模式、
與圖像數(shù)據(jù)有關(guān)的模式以;^fr語(yǔ)言處理中的音素、詞語(yǔ)、句子等的模式。
本申請(qǐng)包含于2008年7月9日向日本專利局提交的日本在先專利申請(qǐng)JP 2008-178806中公開(kāi)的主題內(nèi)M關(guān)的主題內(nèi)容,其4^P內(nèi)容通過(guò)引 用將結(jié)合于此。
本領(lǐng)域技術(shù)人員應(yīng)當(dāng)理解的是,根據(jù)設(shè)計(jì)要求和其它因素可以出現(xiàn)各 種修改、組合、二次組合和變更,只要它們?cè)谒綑?quán)利要求或者其等同物 的范圍內(nèi)。
權(quán)利要求
1.一種學(xué)習(xí)設(shè)備,包括多個(gè)學(xué)習(xí)模塊,所述多個(gè)學(xué)習(xí)模塊中的各學(xué)習(xí)模塊使用輸入數(shù)據(jù)來(lái)進(jìn)行更新學(xué)習(xí)以更新對(duì)模式進(jìn)行學(xué)習(xí)的模式學(xué)習(xí)模型的多個(gè)模型參數(shù);模型參數(shù)共享裝置,用于使所述多個(gè)學(xué)習(xí)模塊之中的兩個(gè)或者更多學(xué)習(xí)模塊共享模型參數(shù);模塊創(chuàng)建裝置,用于在提供用于學(xué)習(xí)模式的新學(xué)習(xí)數(shù)據(jù)作為輸入數(shù)據(jù)時(shí)創(chuàng)建與所述新學(xué)習(xí)數(shù)據(jù)對(duì)應(yīng)的新學(xué)習(xí)模塊;相似度評(píng)估裝置,用于在對(duì)包括所述新學(xué)習(xí)模塊的所有學(xué)習(xí)模塊進(jìn)行更新學(xué)習(xí)之后,評(píng)估學(xué)習(xí)模塊之間的相似度;以及模塊合成裝置,用于基于學(xué)習(xí)模塊之間的相似度來(lái)確定是否合成學(xué)習(xí)模塊,并且合成學(xué)習(xí)模塊。
2. 根據(jù)權(quán)利要求l所述的學(xué)習(xí)設(shè)備,其中模塊創(chuàng)建裝置分配所有現(xiàn)有學(xué)習(xí)模塊的模型參數(shù)的平均值作為新學(xué)習(xí)模塊的多個(gè)模型參數(shù)的初始值。
3. 根據(jù)權(quán)利要求l所述的學(xué)習(xí)設(shè)備,其中模塊合成裝置將多個(gè)進(jìn)行合成的學(xué)習(xí)模塊的模型參數(shù)的平均值設(shè)置為合成后的學(xué)習(xí)模塊的模型參數(shù)。
4. 根據(jù)權(quán)利要求l所述的學(xué)習(xí)設(shè)備,其中模式學(xué)習(xí)模型是對(duì)時(shí)間序列模式或者動(dòng)態(tài)性進(jìn)行學(xué)習(xí)的模型。
5. 根據(jù)權(quán)利要求l所述的學(xué)習(xí)設(shè)備,其中模式學(xué)習(xí)模型是隱馬可夫模型HMM、遞歸神經(jīng)網(wǎng)絡(luò)RNN、前饋神經(jīng)網(wǎng)絡(luò)FNN、支持向量回歸SVR或者具有^lt偏離的遞歸神經(jīng)網(wǎng)絡(luò)RNNPB。
6. 根據(jù)權(quán)利要求l所述的學(xué)習(xí)設(shè)備,其中模型M共享裝置使所述多個(gè)學(xué)習(xí)模塊中的全部或者部分學(xué)習(xí)模塊共享模型^。
7. 根據(jù)權(quán)利要求l所述的學(xué)習(xí)設(shè)備,其中模型M共享裝置使所述多個(gè)學(xué)習(xí)模塊之中的兩個(gè)或者更多學(xué)習(xí)模塊共享多個(gè)模型參數(shù)中的全部或者部分模型參數(shù)。
8. 根據(jù)權(quán)利要求l所述的學(xué)習(xí)設(shè)備,其中模型^lt共享裝置使用由所述兩個(gè)或者更多學(xué)習(xí)模塊分別更新的模型參數(shù)的加權(quán)平均值來(lái)校正由所述兩個(gè)或者更多學(xué)習(xí)模塊中的各學(xué)習(xí)模塊更新的模型^*,由此使所述兩個(gè)或者更多學(xué)習(xí)模塊共享由所述兩個(gè)或者更多學(xué)習(xí)模塊分別更新的所頓型錄。
9. 一種學(xué)習(xí)方法,包括以下步驟在多個(gè)學(xué)習(xí)模塊中的各學(xué)習(xí)模塊中使用輸入數(shù)據(jù)來(lái)進(jìn)行更新學(xué)習(xí)以更新對(duì)模式進(jìn)行學(xué)習(xí)的模式學(xué)習(xí)模型的多個(gè)模型M;使所述多個(gè)學(xué)習(xí)模塊之中的兩個(gè)或者更多學(xué)習(xí)模塊共享模型M;在提供用于學(xué)習(xí)模式的新學(xué)習(xí)數(shù)據(jù)作為輸入數(shù)據(jù)時(shí)創(chuàng)建與所述新學(xué)習(xí)數(shù)據(jù)對(duì)應(yīng)的新學(xué)習(xí)模塊;在對(duì)包括所述新學(xué)習(xí)模塊的所有學(xué)習(xí)模塊進(jìn)行更新學(xué)習(xí)之后評(píng)估學(xué)習(xí)模塊之間的相似度;并且基于學(xué)習(xí)模塊之間的相似度來(lái)確定是否合成學(xué)習(xí)模塊,并且合成學(xué)習(xí)模塊。
10. —種用于使計(jì)算機(jī)作為以下模塊和裝置來(lái)工作的程序多個(gè)學(xué)習(xí)模塊,所述多個(gè)學(xué)習(xí)模塊中的各學(xué)習(xí)模塊使用輸入數(shù)據(jù)來(lái)進(jìn)行更新學(xué)習(xí)以更新對(duì)模式進(jìn)行學(xué)習(xí)的模式學(xué)習(xí)模型的多個(gè)模型M;模型參數(shù)共享裝置,用于使所述多個(gè)學(xué)習(xí)模塊之中的兩個(gè)或者更多學(xué)習(xí)模塊共享所^型M;模塊創(chuàng)建裝置,用于在提供用于學(xué)習(xí)模式的新學(xué)習(xí)數(shù)據(jù)作為輸入數(shù)據(jù)時(shí)創(chuàng)建與所述新學(xué)習(xí)數(shù)據(jù)對(duì)應(yīng)的新學(xué)習(xí)模塊;相似度評(píng)估裝置,用于在對(duì)包括所述新學(xué)習(xí)模塊的所有學(xué)習(xí)模塊進(jìn)行更新學(xué)習(xí)之后評(píng)估學(xué)習(xí)模塊之間的相似度;以及模塊合成裝置,用于基于學(xué)習(xí)模塊之間的相似度來(lái)確定是否合成學(xué)習(xí)模塊,并且合成學(xué)習(xí)模塊。
11. 一種學(xué)習(xí)設(shè)備,包括多個(gè)學(xué)習(xí)模塊,所述多個(gè)學(xué)習(xí)模塊中的各學(xué)習(xí)模塊使用輸入數(shù)據(jù)來(lái)進(jìn)行更新學(xué)習(xí)以更新對(duì)模式進(jìn)行學(xué)習(xí)的模式學(xué)習(xí)模型的多個(gè)模型模型參數(shù)共享單元,用于使所述多個(gè)學(xué)習(xí)模塊之中的兩個(gè)或者更多學(xué)習(xí)模塊共享所述模型^t;模塊創(chuàng)建單元,用于在提供用于學(xué)習(xí)模式的新學(xué)習(xí)數(shù)據(jù)作為輸入數(shù)據(jù)時(shí),創(chuàng)建與所述新學(xué)習(xí)數(shù)據(jù)對(duì)應(yīng)的新學(xué)習(xí)模塊;相似度評(píng)估單元,用于在對(duì)包括所述新學(xué)習(xí)模塊的所有學(xué)習(xí)模塊進(jìn)行更新學(xué)習(xí)之后評(píng)估學(xué)習(xí)模塊之間的相似度;以及模塊合成單元,用于基于學(xué)習(xí)模塊之間的相似度來(lái)確定是否合成學(xué)習(xí)模塊,并且合成學(xué)習(xí)模塊。
全文摘要
本發(fā)明涉及一種學(xué)習(xí)設(shè)備,包括多個(gè)學(xué)習(xí)模塊,所述多個(gè)學(xué)習(xí)模塊中的各學(xué)習(xí)模塊使用輸入數(shù)據(jù)來(lái)進(jìn)行更新學(xué)習(xí)以更新對(duì)模式進(jìn)行學(xué)習(xí)的模式學(xué)習(xí)模型的多個(gè)模型參數(shù);模型參數(shù)共享裝置,用于使所述多個(gè)學(xué)習(xí)模塊之中的兩個(gè)或者更多學(xué)習(xí)模塊共享模型參數(shù);模塊創(chuàng)建裝置,用于在作為輸入數(shù)據(jù)提供用對(duì)模式進(jìn)行學(xué)習(xí)的新學(xué)習(xí)數(shù)據(jù)時(shí)創(chuàng)建與所述新學(xué)習(xí)數(shù)據(jù)對(duì)應(yīng)的新學(xué)習(xí)模塊;相似度評(píng)估裝置,用于在對(duì)包括所述新學(xué)習(xí)模塊的所有學(xué)習(xí)模塊進(jìn)行新學(xué)習(xí)之后,評(píng)估學(xué)習(xí)模塊之間的相似度;以及模塊合成裝置,用于基于學(xué)習(xí)模塊之間的相似度來(lái)確定是否合成學(xué)習(xí)模塊,并且合成學(xué)習(xí)模塊。此外,本發(fā)明還涉及一種學(xué)習(xí)方法以及實(shí)現(xiàn)該學(xué)習(xí)方法的程序。
文檔編號(hào)G06N3/00GK101625734SQ20091015108
公開(kāi)日2010年1月13日 申請(qǐng)日期2009年7月9日 優(yōu)先權(quán)日2008年7月9日
發(fā)明者伊藤真人, 野田邦昭, 青山一美 申請(qǐng)人:索尼株式會(huì)社