基于m/m/1排隊的toc服務模型及其服務響應時間的計算方法
【技術領域】
[0001] 本發明涉及三值光學計算機領域,尤其涉及一種基于M/M/1排隊的TOC服務模型及 其服務響應時間的計算方法。
【背景技術】
[0002] 自2003年上海大學的金翊教授提出三值光學計算機(Ternary Optical Computer,T0C)體系結構和原理,研究者們不但在硬件方面取得了許多重要成果,而且在軟 件方面也取得很大進展。例如提出了降值設計理論、加法器進位直達通道理論,實現了無進 位加法和向量矩陣乘法。特別值得一提的是,降值設計理論使TOC的光學處理器具有重構 性。也是就說,TOC具有計算的靈活性,能夠根據計算需求構建不同的處理器。同時,光計算 的并行性使得TOC處理器具有巨位性。總之,TOC作為一種新型計算資源,用戶可以通過網絡 獲取具有高性能、可擴展性和安全性的服務。
[0003] TOC光學處理器雖然因具備并行性、巨位性、可重構性和按位可分配性等的優良特 性,但是目前缺少對TOC服務模型性能的研究,因此無法對三值光學計算機任務管理系統進 行有效的管理。
【發明內容】
[0004] 針對上述技術中存在的不足之處,本發明提供一種提高系統效率、以確保其提供 更好的網絡通信服務的基于M/M/1排隊的TOC服務模型及其服務響應時間的計算方法。
[0005] 為實現上述目的,本發明提供一種基于M/M/1排隊的TOC服務模型,包括客戶端和 作為完成用戶計算需求的唯一節點的服務器;用戶通過客戶端向服務器提交運算請求,月艮 務器完成運算后再將結果反饋給客戶端;
[0006] 所述服務器包括運算請求接收模塊、數據預處理模塊、任務調度模塊、處理器分配 模塊、處理器硬件重構模塊、處理器模塊、解碼器模塊和運算結果發送模塊;運算請求接收 模塊接收到到用戶提交的運算請求后,將其發送至數據預處理模塊;數據預處理模塊計算 運算請求的優先級并將其插入待調度鏈表;任務調度模塊完成鏈表中任務的調度,將任務 發送到處理器分配模塊;處理器分配模塊根據按需分配原則為已被調度的任務中的不同運 算分配光學處理器資源;同時,處理器硬件重構模塊根據用戶不同的計算需求完成光學處 理器重構,并運用重構好的處理器模塊為用戶完成運算,解碼器模塊對運算結果進行解碼, 并將運算結果發送至運算結果發送模塊,最后運算結果發送模塊將運算結果反饋至相應的 客戶端。
[0007] 為實現上述目的,本發明還提供一種基于M/M/1排隊的TOC服務模型的服務響應時 間的計算方法,不同用戶可以并發提交運算請求,不同運算請求到達時將按等待制進行排 隊,因此基于M/M/1排隊系統,TOC為η個運算請求提供計算服務的響應時間T的計算公式為:
[0008] T = Tra+Tdpp+Trs+Trt (1)
[0009] 其中Tra表示運算請求接收模塊接收運算請求所需的平均時間,Tdpp表示對運算請 求進行預處理所需的平均時間,Trs表示調度任務所需的平均時間,Trt表示將運算結果發送 給用戶的平均時間;
[0010] 所述Tra計算為
[0012]其中λ表示單位時間內到達的任務數即運算請求的到達速率,μ表示各運算請求的 平均運算量,ω表示接收運算請求的網絡傳輸速度;
[0013] 所述Tdpp計算為
[0015]其中τ表示數據預處理模塊對運算請求中的數據進行預處理速度;
[0016] 所述TRS計算為
.、〇/。
[0022]其中,任務調度模塊將數據發送至TOC的的平均傳輸速率為Φ,處理器硬件重構模 塊完成處理器分配時間為常數&,處理器硬件重構模塊完成光學處理器重構的時間為常數 C2,T0C的處理速度為δ,則任務調度模塊、處理器分配模塊、處理器硬件重構模塊、處理器模 塊和解碼器模塊構成的等待制隊列的服務速率JT可由下面的式(7)求得;且所述式(4)是通 過式(7)得到的。
[0024] 其中,所述Trs不僅包括任務調度時間,還包括處理器分配時間、處理器重構時間、 運算時間和解碼時間。
[0025] 其中,所述η個運算請求到達服從參數為λ的指數分布,傳輸數據量為μ/2,傳輸數 據所需平均時間為μ/2 ω,單位時間內接收運算請求個數的服務速率為2 ω /μ。
[0026] 本發明的有益效果是:與現有技術相比,本發明提供的基于Μ/Μ/1排隊的TOC服務 模型及其服務響應時間的計算方法,用戶通過客戶端向服務器提交運算請求,服務器完成 運算后再將結果反饋給客戶端;基于Μ/Μ/1排隊系統和串聯隊列以及先到先服務的原則,得 到了TOC服務的總體服務響應時間的計算方法,該計算方法的得出,發現服務響應時間隨任 務到達率和運算量的增加而增加,隨網絡傳輸率的增加而減少。通過該系統及方法的改進, 提高系統效率,以確保其提供更好的網絡通信服務。另外,該系統服務響應時間的計算公 式,模型仿真顯示運算量和廣域網傳輸速度是影響系統響應時間的瓶頸,因此,要提高系 統效率就必須分析和設計恰當的任務管理系統,以方便用戶像使用電子計算機那樣使用 TOC,從而減少數據傳輸量。
【附圖說明】
[0027]圖1為本發明的基于M/M/1排隊的TOC服務模型的網絡框架圖;
[0028]圖2為本發明的基于M/M/1排隊的TOC服務模型中服務器的工作原理圖;
[0029]圖3為本發明中TOC的任務排隊模型;
[0030]圖4為本發明中響應時間T隨λ變化的關系圖;
[0031]圖5為本發明中響應時間T隨λ和μ變化的關系圖;
[0032]圖6為本發明中不同的運算量μ下響應時間T隨λ的變化關系圖;
[0033]圖7為本發明中不同的傳輸速率ω下響應時間T隨λ的變化關系圖;
[0034]圖8為本發明中不同的數據預處理速度τ下響應時間T隨λ的變化關系圖;
[0035]圖9為本發明中不同的TOC光學處理器運算速度、處理器分配時間C1和光學處理器 重構時間C2不同的ω下T隨λ的變化關系圖;
[0036]圖10為本發明中T隨ω的變化的關系圖;
[0037]圖11為本發明中λ = 20時T隨ω和μ變化的關系圖。
[0038] 主要元件符號說明如下:
[0039] 1、客戶端 2、服務器
[0040] 21、運算請求接收模塊 22、數據預處理模塊
[00411 23、任務調度模塊 24、處理器分配模塊
[0042] 25、處理器硬件重構模塊26、處理器模塊 [0043] 27、解碼器模塊 28、運算結果發送模塊。
【具體實施方式】
[0044] 為了更清楚地表述本發明,下面結合附圖對本發明作進一步地描述。
[0045] 請參閱圖1-2,本發明的基于Μ/Μ/1排隊的TOC服務模型,包括客戶端1和作為完成 用戶計算需求的唯一節點的服務器2;用戶通過客戶端1向服務器2提交運算請求,服務器2 完成運算后再將結果反饋給客戶端1;
[0046]服務器2包括運算請求接收模塊21、數據預處理模塊22、任務調度模塊23、處理器 分配模塊24、處理器硬件重構模塊25、處理器模塊26、解碼器模塊27和運算結果發送模塊 28;運算請求接收模塊21接收到用戶提交的運算請求后,將其發送至數據預處理模塊22;數 據預處理模塊22計算運算請求的優先級并將其插入待調度鏈表;任務調度模塊23完成鏈表 中任務的調度,將任務發送到處理器分配模塊24;處理器分配模塊24根據按需分配原則為 已被調度的任務中的不同運算分配光學處理器資源;同時,