You are here

答え―TSUBAME の利用に関する質問

一般的な情報

Q.TSUBAME3.0 を利用するための、基本的な情報はどこを見ればよいですか。
A.

TSUBAME3.0のご利用にあたりましては、以下の手引きなどをご参考になさってください。

TSUBAME3.0計算サービス内のTSUBAME3.0 利用の手引き

TSUBAME3.0計算サービス内のTSUBAMEポータル利用の手引き

TSUBAME3.0計算サービス内のFAQ

TSUBAME共同利用内の利用講習会資料
FAQ Page

Q.FAQを見てもわからない場合には、どこへ連絡したらよいですか。
A.

TSUBAME共同利用 利用者および HPCI 実証利用 利用者は kyoyo_at_gsic へお問い合わせください。
(上記のメールアドレスの _at_ を半角の@へ変換した後に .titech.ac.jp を付けてください。)
TSUBAME相談窓口 (soudan) は基本的に学内ユーザーのみの問い合わせ窓口となっておりますが、
学術利用の利用者からの直接の問い合わせにも対応いたします。

FAQ Page

利用可能なサービスに関して

Q.TSUBAME共同利用では有償アプリケーションは利用できますか。
TSUBAME共同利用で利用可能なアプリケーションを教えてください。
A.

TSUBAME共同利用では、インストール済みの有償アプリケーションから一部をご利用いただけます。

    学外利用者が無償でご利用いただけるアプリケーションは以下の通りです。

  • OS(SUSE Linux Enterprise Server 12 SP4、ジョブスケジューラ(UGE)
  • gcc、Intel、PGI Compiler、CUDA、Forge 等開発環境
  • Gaussian 16、GaussView
  • TSUBAMEに導入済みのフリーソフトウェア (アプリケーション一覧 の "フリーソフトウェア" の項を参照ください)
    • 上記以外の一般的な商用ソフトウェアを利用したい場合は、ベンダーからライセンスを取得していることが条件となります。 VASP はサポート外ですが動作実績のあるソフトウェアです。ライセンスについては配布元にお問合せください。

      FAQ Page

Q.GPU対応のアプリケーションを教えてください。
A.

TSUBAMEに導入済みアプリケーションのGPU対応状況については、こちらの "GPU対応" の欄をご確認ください。

FAQ Page

Q.CUDA で GPU を割り当てるには?
A.

CUDAを利用し GPU を指定する場合は環境変数 CUDA_VISIBLE_DEVICES を使用します。
TSUBAME計算ノード (f_nodeの場合) はデバイス番号が 0-3 までの4つのGPUが利用可能です。
以下のように指定することで各GPUを利用することができます。
・GPUの0番を指定する場合
 CUDA_VISIBLE_DEVICES=0
・GPUの0~3番を指定する場合
 CUDA_VISIBLE_DEVICES=0,1,2,3
例:
export CUDA_VISIBLE_DEVICES=0,1,2,3

また、CUDA API の cudaSetDevice() で指定することも可能です。
詳細は こちら をご参照ください。

FAQ Page

Q.Mac で Xアプリケーション(GUI)が動作しません
A.

Mac から TSUBAMEにログインして COMSOL や GaussView などの Xアプリケーション
を実行する際、Mac の XQuartz を使用した場合 GUI が正しく表示されない場合があります。
下記の設定を行ってから TSUBAME のアプリケーションを実行してください。

・Mac 側での設定:
sudo defaults write org.macosforge.xquartz.X11 enable_iglx -bool true
・TSUBAME側での設定:
export USE_MESAGL=1

これらの設定により OpenGL を MESA にて対応し表示することが可能となります。
一般的な X アプリケーションの不具合につきましては こちら をご参照ください。
FAQ Page

Q.1口の利用料金を教えてください。
A.

TSUBAMEの利用料金につきましては こちら をご参照ください。
FAQ Page

Q.1口=1000ノード時間相当で、TSUBAME3.0 はどれくらい使えますか。
(1口は 1000ノード時間相当で 3,600,000 TSUBAMEポイントです)
A.

1 TSUBAMEポイントで、標準ノード f_node (28CPUコア、4GPU、256GBメモリ) を 1秒間利用できます。

    この1000ノード時間相当は、例えば以下のそれぞれの計算資源に相当します。

  • 1 ノードを1日10時間利用で100日間使用可能。
  • 2 ノードを1日10時間利用で 50日間使用可能。
  • 16ノードを1日 9時間利用で 7日弱使用可能。(16nodes × 9hours × 7days = 1008 ノード時間)
  • 予約システムを利用する場合は 200ノードで 4時間利用可能 (閑散期) 予約係数 1.25倍となります
  • 1000 GPU並列を利用するには 250ノードで 4時間使用可能。(1000 GPUコア÷4 ×4hours = 1000 ノード時間)
    (予約して 1000GPU 使用する場合は 250ノード4時間の予約となり 1250ノード時間相当が必要となります)

FAQ Page

Q.TSUBAMEポイントを確認する方法を教えてください。
A.

TSUBAMEポイントは以下の方法で確認できます。

 ・t3-user-info コマンドを使用する。
 ・TSUBAMEポータルで確認する。
FAQ Page

Q.TSUBAMEポイントを追加したいときはどうすればいいですか
A.

TSUBAMEポイントが不足した場合は 提出様式集の "6b .計画変更(利用口数追加)申請書"
を提出してください。その際、請求書発行日と支払期日につきましては事前にご相談ください。
FAQ 口数が足りなくなりました もご参照ください。
なお、口数追加が承認された時点でポイントは追加されます。

FAQ Page

ファイルシステムに関して

Q.グループディスクの設定を変更(増、減)したいのですが
A.

ホームディレクトリは 25GBまで無料ですが、グループディスクは 1TB/1月 10ノード時間で課金されます
共同利用ユーザーのグループディスクの容量設定は、共同利用推進室にて設定しております。
所定のフォーマットに必要容量をご記入し、共同利用推進室までご連絡ください。

FAQ Page

Q.処理が中断し計算ノードの /scr にデータが残ってしまいました
A.

原則として SSD に書き込まれたデータはユーザのプログラムにより削除していただくことになっておりますが、
プログラムの中断などにより /scr にデータが残った場合は、システムにより /scr のデータを削除しております。

FAQ Page

Q.大容量のデータを転送したいときはどうすればいいですか。
A.

比較的小さなファイルの転送につきましてはログインノードをご利用ください。
比較的大きなファイルを転送する場合は、qrsh などでノードを確保したうえで転送を行ってください。
数テラ規模の大容量ファイルを対象にする場合は共同利用推進室までご連絡ください。
学内のユーザーが対象ですが こちら もご参照ください。
TSUBAME3.0では計算ノードからも外部のインターネット上のデータを取り込むことが可能となりました。

FAQ Page

Q.異なる課題グループ間でデータを移動したいときはどうすればいいですか。
A.

HPCI/JHPCN から共同利用への移動や、年度更新による課題名の変更など、
異なる課題グループ間でのデータの移動が必要な際は、
以下のような手順にてデータをコピーすることができます。

・ログインノードへ新課題のアカウント にてログイン
・ログインノードで旧課題から新課題のグループディスクへコピー

(scp による例)
PC$ ssh <新アカウント>@login.t3.gsic.titech.ac.jp
<新アカウント>@login$
<新アカウント>@login$ scp -r <旧アカウント>@localhost:/gs/hs0/tgX-<旧課題> /gs/hs0/tgX-<新課題>

FAQ Page

Q.WinSCP でデータをコピーしたいのですが。
A.

学外から WinSCP を用いてデータを転送する際には ssh-keygen で作成された鍵のフォーマットと異なる秘密鍵を参照する必要があります。 puttygen で鍵の形式を変換し WinSCP で参照するようにします。 
PuTTYを使用しているのですが…
も参考にしてください。

FAQ Page

Q.データがコピーできません。
A.

グループディスクの割り当てを確認し、残りの容量を調べてください。
ホームディレクトリは 25GB までとなりますが、グループディスクは 1TB 単位で購入できます。
グループディスクに余裕がある場合でもファイル数の上限を越えると書き込めなくなります。
1TB あたりの最大ファイル数は 2,000,000 ファイルとなります。
以下の方法でご確認ください。
 ・クオタコマンドを使用する。 $ lfs quota -g tgx-19IXX /gs/hs0
 ・t3-user-info コマンドを使用する。
 ・TSUBAMEポータルで確認する。

FAQ Page

PageTop