GSIC

住所 〒152-8550
東京都目黒区大岡山 2-12-1
Email こちらのアドレスまで

答え―TSUBAME の利用に関する質問

一般的情報

Q.TSUBAME3.0 を利用するための、基本的な情報はどこを見ればよいですか。
A.

この共同利用のFAQは今後、充実予定です。

TSUBAME3.0計算サービス内のTSUBAME3.0 利用の手引き

TSUBAME3.0計算サービス内のTSUBAME3.0利用ポータル利用の手引き

TSUBAME3.0計算サービス内のFAQ

FAQ Page

Q.TSUBAME2.5 を利用するための、基本的な情報はどこを見ればよいですか。
A.

この共同利用のFAQは今後、充実予定です。

TSUBAME2.5計算サービス内のTSUBAME 2.5 利用の手引きHTML,PDF

TSUBAME2.5計算サービス内のTSUBAME2.5利用ポータル利用の手引き(PDF)

TSUBAME2.5計算サービス内の各種利用の手引き

TSUBAME2.5計算サービス内のFAQ

FAQ Page

Q.FAQを見てもわからない場合には、どこへ連絡したらよいですか。
A.

TSUBAME共同利用 利用者および HPCI 実証利用 利用者は kyoyo_at_gsic へお問い合わせください。
(上記のメールアドレスの _at_ を半角の@へ変換した後に .titech.ac.jp を付けてください。)
TSUBAME相談窓口 (soudan) は学内ユーザーのみの問い合わせ窓口となっております。

FAQ Page

共同利用へ提供するサービスについて

Q.TSUBAME共同利用では定額制サービスは利用できますか。
A.

定額制サービス(Vキュー)は学内限定のため、共同利用ではご利用いただけません。

FAQ Page

Q.TSUBAME共同利用では有償アプリケーションは利用できますか。
TSUBAME共同利用で利用可能なアプリケーションを教えてください。
A.

TSUBAME共同利用では、インストール済みの有償アプリケーションのうち、ごく一部のみご利用いただけます。

    学外利用者が無償でご利用いただけるアプリケーションは以下の通りです。

  • OS(SUSE Linux Enterprise Server 11 SP3、ジョブスケジューラ(PBS Professional)
  • PGI CDK、Intel Compiler、TotalView Debugger等 開発環境
  • Gaussian 09、GaussView 5、Gaussian用Linda
  • TSUBAMEに導入済みのFree Software (一覧は こちらのページの "Free applications" へ
    • 上記以外の一般的な商用ソフトウェアに関しては、利用者がベンダーからライセンスを取得して利用者のディレクトリにインストールしてご利用ください。

      FAQ Page

Q.GPU対応のアプリケーションを教えてください。
A.

TSUBAMEに導入済みアプリケーションのGPU対応状況については、こちらのページをご確認ください。

この一覧にあるアプリケーションのうち、TSUBAME共同利用でご利用いただけるアプリケーションについては、次のFAQをご参照ください。
Q. TSUBAME共同利用で利用可能なアプリケーションを教えてください。

FAQ Page

Q.1口=3,000 TSUBAMEポイントで、TSUBAME2.5 はどれくらい使えますか。
A.

1 TSUBAMEポイントで、標準ノードであるThinノード(12CPUコア、3GPU、54GBメモリ搭載) をSキューにて1時間利用できます。

    この3,000 TSUBAMEポイントは、例えば以下のそれぞれの計算資源に相当します。

  • 1 ノードを1日10時間利用で、300日間使用可能。
  • 10 ノードを1日10時間利用で、1ヶ月間使用可能。
  • 1 ノードを4ヶ月強(1node×24hours×30days×4months = 2,880 TSUBAMEポイント)
    =4ノードを1ヶ月強 (4nodes×24hours×30days = 2,880 TSUBAMEポイント)
  • 18ノードを1週間弱 (18nodes×24hours×7days = 3,024 TSUBAMEポイント)
  • 1000 CPU並列でちょうど1日半 (1000 cpuコア÷12 ×24hours×1.5days = 3,000 TSUBAMEポイント)
    =1時間の1000 CPU並列ジョブを36回実行可能。
  • 100 GPU並列で1週間強 (100GPU÷3 ×24hours×7days×0.5係数(*) = 2,800 TSUBAMEポイント)
    1時間の100 GPU並列ジョブを180回実行可能 (100GPU÷3 ×180回×0.5係数(*) = 3,000 TSUBAMEポイント)
    (*) GPU専用キューを利用

FAQ Page

Q.課金情報の group factor が x 4.0 となっていますが
A.

TSUBAMEを学外利用(HPCI利用、共同利用・成果公開)にてご利用いただく場合、
group factor が x 4.0 となります。有償利用・成果非公開でご利用の場合は x 16.0 となりますが
いずれの場合でも group factor の値は該当ジョブの課金額を表示するためだけに用いられるもので
消費されるポイント数には影響しません。

FAQ Page

Q.グループディスクの設定を変更(増、減)したいのですが
A.

共同利用ユーザーのグループディスクの容量設定は、共同利用推進室にて設定しております。
所定のフォーマット(例)に必要容量をご記入し、共同利用推進室までご連絡ください。

FAQ Page

Q.処理が中断し計算ノードの /scr にデータが残ってしまいました
A.

原則として SSD に書き込まれたデータはユーザのプログラムにより削除していただくことになっておりますが、
プログラムの中断などにより /scr にデータが残った場合は、システムにより /scr のデータを削除しております。

FAQ Page

Q.CUDA のライブラリが見つかりません
A.

実行時の LD_LIBRARY_PATH を確認してください。
場合によっては .bashrc などに LD_LIBRARY_PATH の設定が必要な場合もあります。
例)
LD_LIBRARY_PATH=/opt/cuda/6.0/lib:/opt/cuda/6.0/lib64:${LD_LIBRARY_PATH}
export LD_LIBRARY_PATH
MPI の場合は mpirun に -x LD_LIBRARY_PATH とすることで環境変数をエクスポートできます。

FAQ Page

Q.大容量のデータを転送したいときはどうすればいいですか。
A.

比較的小さなファイルの転送につきましてはログインノードもしくは IO専用ノードの io-t2 をご利用ください。
数テラ程度のファイルの転送を希望される場合は、専用のダウンロードサーバーがございますので、
共同利用推進室までご連絡ください。学外の方にも学内ネットワークと同等レベルの環境がご利用いただけます。

FAQ Page

Q.異なる課題グループ間でデータを移動したいときはどうすればいいですか。
A.

HPCI/JHPCN から共同利用への移動や、年度更新による課題名の変更など、
異なる課題グループ間でのデータの移動が必要な際は、
以下のような手順にてデータをコピーすることができます。

・io-t2 へ新課題のアカウント にてログイン
・io-t2 で旧課題から新課題のグループディスクへコピー
(通常の login ノードでもコピーできますが io-t2 の利用を推奨します)

(scp による例)
PC$ ssh <新アカウント>@io-t2.g.gsic.titech.ac.jp
<新アカウント>@io-t2$
<新アカウント>@io-t2$ scp -r <旧アカウント>@localhost:/work1/t2g-<旧課題> /work1/t2g-<新課題>

FAQ Page

Q.WinSCP でデータをコピーしたいのですが。
A.

学外から WinSCP を用いてデータを転送する際には ssh-keygen で作成された鍵のフォーマットと異なる秘密鍵を参照する必要があります。 puttygen で鍵の形式を変換し WinSCP で参照するようにします。

学外からの教育システムのデータへのアクセス方法
の "WinSCPの設定" を参考にしてください。

FAQ Page

PageTop