1. VCS集群中用命令行方式怎麼設置超時時間
集群是由兩台 或者兩台以上的伺服器組成,利用共享磁碟陣列實現系統高可用性,保證系統7*24不間斷運行的軟體產品。 常見集群軟體: windows : mscs vcs roseha 等 linux :RHCE、roseha 等。
2. 兩台伺服器,如何進行雙機熱備
雙機主要分兩種,一種是磁碟陣列櫃的硬體雙機熱備;一種是沒有磁碟陣列櫃的純軟雙機熱備.如果沒有磁碟陣列櫃的話,只能做純軟雙機,那你需要購買兩個雙機軟體,才能做,一個是雙機熱備份軟體:如ROSS或PLUS WELL等,別一個是雙機鏡像軟體MirrorHA,
以ross為例:
1.純軟體雙機熱備份
兩台伺服器通過網路連接,硬體配置少了磁碟陣列 , 軟體配置上,除了 Cluster 之外,新增了 NT Mirror , NT Mirror 是 ROSE 公司的網路數據鏡像軟體。
圖 2 純軟體雙機熱備份系統
2 、 系統工作原理
與常規的雙機系統相比,純軟體雙機熱備份系統的兩台伺服器之間少了公共的存儲設備(通常是磁碟陣列),但是多了網路數據鏡像軟體 Mirror 。沒有了公共存儲設備磁碟陣列,對於某一個需要進行切換的服務而言,怎樣保證其所用的數據在兩台伺服器上是一致的呢?這就是數據鏡像軟體 ROSE NT Mirror 的功能所在——— NT Mirror 通過網路,將某一台伺服器上指定路徑下的數據採用同步或非同步方式,鏡像到另一台伺服器。
鏡像軟體取代雙機熱備份系統的磁碟陣列,關鍵之處在於其必須與 Cluster 軟體協同工作。當某一服務運行於伺服器 A 時,它所使用的特定數據在伺服器 A 上對應於一個數據集合Ф A, 通過 NT Mirror 將源數據集Ф A 鏡像到伺服器 B 成為目標數據集Ф B, 當 NT Cluster 將該服務程序從伺服器 A 切換到伺服器 B 時,它使用伺服器 B 上的數據Ф B, 同時 NT Mirror 自動修改原來從Ф A 到Ф B 的鏡像成為從Ф B 到Ф A 的鏡像。對一個服務程序是這樣,對多個服務程序,則一一建立服務程序與數據鏡像集之間的關系。這樣,無論服務程序運行於哪一個伺服器,始終保證其所使用的數據在對端伺服器有一份鏡像存在;當一台伺服器由於硬體或軟體原因發生故障失效 , 另外一台可在保證提供自己原有服務的同時 , 啟動失效伺服器的應用程序從而取代其伺服器功能。
3 、運作方式:
在正常的運作情形之下,主機之間透過冗餘偵測線路互相偵測,當任一主機有錯誤產生時, ROSE HA 提供嚴謹的判斷與分析,確認主機出錯之後,啟動備援接管動作。
支持各種操作系統平台: Unix 、 Linux 、 Windows Server 等。
支持各種資料庫: 資料庫SQL 、 Oracle 、 Informix 、 Sysbase 、 Exchenge 、 Lotus/Nose 、 DB2 等
接管動作包括 :
文件系統 ( File System)
資料庫 ( Database)
網路地址 ( IP Address)
應用程序 (AP)
系統環境 (OS)
容錯備援運作過程
• 當一台活動伺服器宕機時,其 IP 地址、伺服器名稱及運行的作業會自動轉移至另一台伺服器,客戶端軟體不需要重新設定,只要重新連結至原來的 IP 地址及伺服器名稱即可繼續作業;
• 兩台伺服器的信息交換可通過: RS232 、 TCP/IP
• ROSE HA 採取高可靠的錯誤檢測和故障恢復機制減少系統宕機,停機時間並防範錯誤,提供故障警告;
• ROSE HA 可設定故障排除後自動或手動回復 ( switch back );
• ROSE HA 安裝時不需要修改操作系統的核心、更改應用軟體,也無需特殊的硬體;
• ROSEHA 提供基於 GUI 的監控中心,管理員能查看 ROSE HA 的狀態、檢查錯誤信息和警告、修改系統參數及從遠程工作站管理 ROSE HA 系統;
• 與資料庫無關,可以支持各種資料庫,包括 ORACLE 、 Sybase 、 Informix 等
管理工具:
• 友好、直觀、易於操作的 GUI 界面
• 有關 ROSE HA 的配置都可以在 GUI 中完成,支持動態配置和實時同步
• 網卡的狀態,磁碟的狀態都可在 GUI 中顯示出來
• 用戶可通過第三方 Web 瀏覽器進行遠程管理
監控的對象資源:
• Volume
• IP 地址
• 計算機別名
• 共享文件
• NT 服務
• 用戶自定義
總之, ROSE HA 軟體極大程度上減少了人的介入,提高了系統的可靠性與安全性,使服務能可靠的運行。
四、系統特點
純軟體高可用方案,是雙機高可用軟體和網路數據鏡像軟體的完美結合。可以概括如下:
• 系統成本低:不需要磁碟陣列,降低了系統成本。
• 系統抗災難能力強。
• 構成雙機系統的兩台伺服器通過網路連接,可以相隔很遠的物理距離,增強了系統的抗災難能力。
• 雙向的失效切換功能。
• 雙向的失效切換,又稱 ACTIVE/ACTIVE 冗餘方式,是指為用戶提供兩台可運行重要應用的全功能伺服器 並確保它們中任何一台失效時另外一台可自動代替其功能。
• 系統資源佔用少系統效率高。
• 數據鏡像可以綁定到某一對網卡上完成,不佔用伺服器網路資源,減輕伺服器負載,提高系統效率。
• 伺服器無需相同。
• 雙機熱備份的兩台伺服器在硬體和軟體配置上無須相同。
• 無需停機的設備維護能力。
• 由於應用程序可以在兩台伺服器之間自由切換,用戶可由此實現在不停止網路服務前提下對其進行維護工作,如日常檢查 . 維修或測試;而此時前台工作站可以完全透明地保持在工作狀態。
• 簡單易用功能全面的管理窗口。
• 面向對象的管理窗口使您只需移動滑鼠,就可以配置和管理整個雙機熱備份系統。
• 從資源定義到服務程序的切換,都可以輕松完成。
系統要求:
• 兩台伺服器配置無需相同 ( IBM 伺服器有例外)
• window NT/windows 2000 、 2003 操作系統版本一致
• 用於公用網路的網卡( Ethernet,Fast Ethernet,FDDI 或 ATM 卡 ) 用於私用網路的網卡或 RS-232 串口線
2.硬體雙機熱備份:可以用Win2003企業版也可以做.
3. vcs命令寄存器初始化為0
對於寄存器,如果沒有明確指定其初始值,Vivado會根據其類型(FDCE/FDRE/FDPE/FDRE)設定合適的初始值
有些工程師喜歡使用復位信號,對所有的寄存器進行上電復位,使其在處理數據之前達到期望初始狀態。但這會有一個不利之處就是復位信號的扇出很大,從而消耗了大量的布線資源,甚至造成布線擁塞
4. 如何通過VCS安裝Linux雙機
什麼操作系統,各個操作系統不一樣解決方案是不一樣的。如果採用第三方軟體的話推薦用賽門鐵克的SF+VCS(不是廣告)。還有什麼需求可以hi我。
5. DC綜合後的VCS後模擬命令怎麼寫,需要添加哪些庫
library(rpart);
## rpart.control對樹進行一些設置
## xval是10折交叉驗證
## minsplit是最小分支節點數,這里指大於等於20,那麼該節點會繼續分劃下去,否則停止
## minbucket:葉子節點最小樣本數
## maxdepth:樹的深度
## cp全稱為complexity parameter,指某個點的復雜度,對每一步拆分,模型的擬合優度必須提高的程度
ct <- rpart.control(xval=10, minsplit=20, cp=0.1)
## kyphosis是rpart這個包自帶的數據集
## na.action:缺失數據的處理辦法,默認為刪除因變數缺失的觀測而保留自變數缺失的觀測。
## method:樹的末端數據類型選擇相應的變數分割方法:
## 連續性method=「anova」,離散型method=「class」,計數型method=「poisson」,生存分析型method=「exp」
## parms用來設置三個參數:先驗概率、損失矩陣、分類純度的度量方法(gini和information)
## cost我覺得是損失矩陣,在剪枝的時候,葉子節點的加權誤差與父節點的誤差進行比較,考慮損失矩陣的時候,從將「減少-誤差」調整為「減少-損失」
fit <- rpart(Kyphosis~Age + Number + Start,
data=kyphosis, method="class",control=ct,
parms = list(prior = c(0.65,0.35), split = "information"));
## 第一種
par(mfrow=c(1,3));
plot(fit);
text(fit,use.n=T,all=T,cex=0.9);
## 第二種,這種會更漂亮一些
library(rpart.plot);
rpart.plot(fit, branch=1, branch.type=2, type=1, extra=102,
shadow.col="gray", box.col="green",
border.col="blue", split.col="red",
split.cex=1.2, main="Kyphosis決策樹");
## rpart包提供了復雜度損失修剪的修剪方法,printcp會告訴分裂到每一層,cp是多少,平均相對誤差是多少
## 交叉驗證的估計誤差(「xerror」列),以及標准誤差(「xstd」列),平均相對誤差=xerror±xstd
printcp(fit);
## 通過上面的分析來確定cp的值
## 我們可以用下面的辦法選擇具有最小xerror的cp的辦法:
## prune(fit, cp= fit$cptable[which.min(fit$cptable[,"xerror"]),"CP"])
fit2 <- prune(fit, cp=0.01);
rpart.plot(fit2, branch=1, branch.type=2, type=1, extra=102,
shadow.col="gray", box.col="green",
border.col="blue", split.col="red",
split.cex=1.2, main="Kyphosis決策樹");
6. vcs 運行中打開文件失敗
在急救那些由於系統DLL文件丟失引起的Windows系統運行不正常故障時,我們根本不需要重新安裝操作系統,只需要對那些已經丟失了的DLL文件進行一下重新注冊,就能讓系統恢復正常運行狀態了。
(1)開始-運行:輸入cmd,按「enter」鍵回車!進入"c:windowssystem32cmd.exe"窗口(2)在"c:windowssystem32cmd.exe"窗口中的命令提示符下直接輸入:for %1 in (%windir%system32*.dll) do regsvr32.exe /s %1。注意:是在命令提示符下,不是在「運行」框中!小技巧:可以直接復制以上命令,粘貼即。(3)按「enter」鍵回車!開始對系統所有的DLL文件重新注冊了!耐心等待吧。
7. LINUX VCS雙機軟體啟動vxdbd進程嗎這個進程是干什麼用的是否可以停掉
是 gamin 這個軟體的駐守進程,這個軟體是用來監控本地磁碟文件改動的。在網上有不少人提到這個軟體有的時候會導致CPU佔用率100%,所以可以考慮把這個軟體移除或者禁止自動啟動。
8. 雙機熱備怎麼弄的
1,雙機熱備特指基於高可用系統中的兩台伺服器的熱備(或高可用),因兩機高可用在國內使用較多,故得名雙機熱備。
2,以一般常用的SQL服務的雙機熱備為例:先在兩台伺服器上安裝伺服器系統。
3,然後建立一個或多個磁碟陣列,將兩台伺服器上的SQL數據保存在磁碟陣列上。
4,然後安裝一款集群軟體,如:微軟MSCS,SymantecVCS,ATANG Cluster等。
5,然後在軟體上分別設置主和副伺服器。以MSCS為例,先在伺服器上安裝Advanced Server或DataCenter Server。 然後在兩台伺服器添加相同的管理員帳號和密碼。即帳號在每個節點上,都必須具有管理員許可權。所有節點都必須是成員伺服器,或者所有的節點是同一個域里的域控制器。在群集中,不允許一部分是域成員,一部分是域控制器。
6,然後安裝集群管理軟體,開啟磁碟陣列,在兩台電腦上設置共享磁碟,並驗證共享磁碟國。
7,然後關閉第一個伺服器,配置第二個節點,配置完成後,關閉第二個伺服器,打開第一個伺服器,配置第一個節點。
8,最後,開啟兩個伺服器和磁碟陣列。
9. VCS配置過程環境oracle雙機使用共享存儲模式
你是要問怎麼配置 還是?
10. vcs生成覆蓋率時,條件編譯的頂層會被當做不同的項目,合並覆蓋率時會出錯,怎麼解決
要生成覆蓋率報告,要在編譯和模擬的時候,加入一個選項。 -cm line | fsm | tgl | cond , 指定生成針對什麼條件的覆蓋率報告。如下的makefile,就生成上述四個的覆蓋率報告。注意,編譯和模擬,都要加上-cm這個選項。執行 make vcs , make sim後,會生成simv.vdb文件夾,該文件夾下包含了覆蓋率的內容,但是我們需要將內容生成報告,這樣,才方便我們查看。生成報告,使用的是 urg命令,該命令也是屬於vcs工具裡面的-dir: 指定 .vdb文件夾的位置report: 指定生成報告的格式,報告格式有兩種,一種網頁格式,一種text格式。這里,both代表生成兩種。執行 make urg後,就會生成both文件夾。 這文件夾下的文件,就是覆蓋率報告了。打開dashboard.html。可以看到整體的一些信息。但是我們關心的是設計的,而不是testbench的。點擊hierarchy,得到層次。點擊u1,也就是設計的頂層。可以看到關於該頂層的信息。因為在頂層,都是調用各個子模塊(這里是調用 band_generaterx_tx, uart_txd模塊),所以沒有line的覆蓋率統計,但是有TOGGLE的覆蓋率統計,也就是信號的翻轉。從上面可以看出,對於rst_n信號,沒有從1->0的翻轉,而這個信號是testbench中傳遞的,因此看出,在testbench設計,對於rst_n信號產生,有bug。點擊左下角的uart_txd_1,查看該模塊的信息。 對於該設計,因為有具體的實現,所以可以看到有line的覆蓋率,toggle的覆蓋率,FSM的覆蓋率。對於line覆蓋率,從報告看出,總共有42行,覆蓋到了41行。通過查看代碼,可以知道是哪一行沒有被執行到。對於toggle覆蓋率。從報告看出,只有rst_n有問題,而這問題是testbench的的bug造成的。對於FSM的檢查。從報告看出,每個狀態都有被覆蓋到。但是從有些狀態跳轉到另外的狀態,沒有被覆蓋到。因此造成FSM的覆蓋率不高。通過查看覆蓋率報告,可以查找到設計的缺陷,從而進行修正。