- 1. やりたいこと
- 2. EC2インスタンス
- 3. EC2インスタンス セキュリティグループ
- 3.0.1. 【AWS DBS-C01】合格のための知識詰め込み
- 3.0.2. WorkDocs で、ゲストユーザーの招待の挙動を確認する
- 3.0.3. 必見!クラウドプラクティショナーの出題範囲のサービスを一枚にしました
- 3.0.4. Amazon WorkDocs を作成してみた
- 3.0.5. 【AWS IAM】AWS IAM Roles Anywhereを、自己署名のプライベートCA局で試してみる
- 3.0.6. 【AWS】Amazon Transcribeで動画の文字おこしをやってみた
- 3.0.7. 【Data + AI Summit 2022】McAfeeがDatabricks on AWSを大規模に活用する方法
- 3.0.8. EC2 Classic 環境廃止の確認(Macの場合)
- 3.0.9. Amazon SageMaker Studioにデフォルトで用意されているコンテナイメージのECRのURIを見つける方法
- 3.0.10. API Gateway、Lambda(Node.js)、DynamoDB を使ったAPIの作り方
- 3.0.11. Amazon ConnectとAmazon Chime SDKを連携してビデオ機能が利用できる問合せシステムを試してみた
- 3.0.12. AWS CLIを使ってVMWare・Hyper-Vなどの仮想データをAWSのEC2上に移行したい
- 3.0.13. オンプレミスとEC2 AutoScalingで負荷分散できる構成を検討した
リザーブドインスタンスでAWS節約!
## はじめに
AWSのサービスって使ってたらいつの間にか結構な金額行きますよね。。。
特に法人で利用すると結構なお値段。
「これからもAWSを使っていきたい。。だけど安く済ませたい。何か簡単に節約できる方法はないのか」と悩みます。
そんなお悩みを解決してくれるのが**リザーブドインスタンス**!
一定期間サービスのサービス使用を先に契約すると、最大72%も割引をきかせてくれる素晴らしいシステムです。
※スポットインスタンスもお安くすみますが、安定稼働させるサーバーには向かないので一旦おいておきます。本記事では、リザーブドインスタンスの概要から使い方、注意点まで説明していきます。
サーバー代お安く済ませたいという方はぜひぜひ読んでいってください〜## リザーブドインスタンスとは何なのか?
冒頭でも記載しましたが、リザーブドインスタンス(以下、RI)とは、長くサービスを使うことでインスタンス代を割り引いてくれるサービスです。
現在利用できるサービスは以下の通りです。“`
EC2, RDS, ElasticSearch, DynamoDB, ElasticCac
REST API としてAWS Lambda関数を呼び出す
## REST API とは
– APIをインターネットへ公開し、JavaScript等から呼び出すしくみです。
– 呼び出しのパラメータ及び戻り値はJSONが使われる場合が多いです。## API Gateway とは
– [AWS Lambda関数](https://docs.aws.amazon.com/ja_jp/lambda/latest/dg/welcome.html)をインターネット経由でREST API として呼び出すことができます。
– [Amazon API Gateway の概念](https://docs.aws.amazon.com/ja_jp/apigateway/latest/developerguide/api-gateway-basic-concept.html)## この記事の目的
– AWS API Gatewayを経由してLambda関数を呼び出すよう構成します。
– Angularのタイプスクリプトから定義したAPIを呼び出します。## Lambda関数を作成
– 関数を作成します。
![image](https://us
SSHで踏み台サーバにログインし、VPC内のインスタンスに対するIP到達性を確認する
## Pythonスクリプトで作業を自動化
### ユースケース
+ **Pythonスクリプト** と **シェルスクリプト** を組み合わせる。
+ Pythonの**paramiko**モジュールを使って、AWS VPC内の踏み台サーバに自動ログインする
+ 自動ログイン後に、シェルスクリプトで対象のインスタンスに対して踏み台サーバからpingコマンドを複数回実行する### 想定する環境
+ AWSのVPCは以下のような構成
+ VPC内はICMPが通るように、セキュリティグループを設定済み
+ K-EC2-ProxyHost-1を踏み台としている![image.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/699739/aa7764bd-4187-d7d6-a071-70cc3af293f0.png)
#### スクリプト実行環境
macOS Montrey (12.4)
Python 3.10.4#### 踏み台サーバ環境
Ubuntu jammy (22.04 LTS)
Ba
Microsoft AD にユーザーを追加したときの、WorkDocs 側の挙動を確認する
# はじめに
WorkDocs では、Directory Service (Microsoft AD, Simple AD, AD Connector) と連携してユーザー管理を行います。Directory Service 上で新たなユーザーを作成したときに、WorkDocs 側でどのように認識されるのか、また WorkDocs へのログインを許可したいときに、どういった作業が必要なのかわからなかったので、検証してみました。
次の観点で検証を行いました
– ユーザーは、どの作業を行うと「アクティブ」になるのか。WorkDocs では、東京リージョンだと 1 アクティブユーザー あたり 7.00 USD の費用が発生するが、Directory Service 側のユーザー数がどのように反映されるのか
– 「アクティブ」になったときのユーザーの権限は、どの権限になっているのか# WorkDocs のセキュリティ設定
Directory Service で新規作成されたユーザーの挙動は、WorkDocs 側のセキュリティ設定によって左右されます。管理者で WorkDocs に
AWS ParallelClusterを触ってみる
# はじめに
ご覧いただきありがとうございます。
ParallelClusterについて調査をする機会がありました。
備忘録として調査/検証内容をまとめようと思います。# 概要
1. HPC環境の概観
2. AWS ParallelClusterのアーキテクチャ
3. AWS ParallelClusterを構築今回の調査にあたり、下記の記事/AWS Black Belt Online Seminar/公式ドキュメントを参考にしました。
[一週間でなれる!スパコンプログラマ](https://kaityo256.github.io/sevendayshpc/)
[AWS ParallelCluster ではじめるクラウドHPC](https://d1.awsstatic.com/webinars/jp/pdf/services/20200408_BlackBelt_ParallelCluster.pdf)
[Amazon FSx for Lustre](https://d1.awsstatic.com/webinars/jp/pdf/services/20190319_
Terraform を使ってAWSにデプロイする時はaws-vaultが便利という話
# 本記事について
最近、Terraformのデプロイを2段階認証ありで行うと手間だったので、簡単にできる方法はないかと調べたところ、aws-vaultを見つけた。aws-vaultを使ってデプロイするとアクセスキーを毎回取ってくる必要はないので非常に楽にデプロイできる。# 前提
– 以下インストールされている環境
– `brew`
– `terraform`
– `aws cli`# 実行環境
“`
% aws –version
aw-cli/2.7.13 Python/3.10.5 Darwin/21.4.0 source/arm64 prompt/off% terraform –version
Terraform v1.2.4
on darwin_arm64% sw_vers
ProductName: macOS
ProductVersion: 12.3.1/
“`# AWS側の設定
#### デプロイをするためのIAMロールを作成する
デプロイ時に必要な権限を付与したIAMロールを作成しましょう。
選択するのは、「AWSアカウ
NATGWでセッションマネージャー接続する方法
やりたいこと
プライベートサブネットにあるEC2からセッションマネージャーで接続する
使用サービス
NATGW,EC2,INGW,VPC,VPCエンドポイント参考構成図
https://dev.classmethod.jp/articles/patterns-about-access-ec2-on-private-subnet/NATとかVPCとかの設定方法
https://qiita.com/fkooo/items/a474db0f3c2e72448d36
https://qiita.com/TK1989/items/5d9bd5d49708c02dff3fRHEL8 ユーザーデータ
https://aws.amazon.com/jp/premiumsupport/knowledge-center/install-ssm-agent-ec2-linux/EC2インスタンス
OS:RHEL8
EC2インスタンス セキュリティグループ
インバウンド
SSH,HTTPS,
【AWS DBS-C01】合格のための知識詰め込み
# はじめに
AWS DBSの試験対策で練習問題を解き、ひたすら知識を詰め込みます。# データベース設計
## RDS
– マルチAZを有効にしていると、AmazonRDSは別のアベイラビリティーゾーンのスタンバイレプリカに自動的に切り替わる。
– マルチAZでは、エンジンレベルのアップグレードは同期的に行われるのでダウンタイムが発生する。
– パラメータグループを変更した場合、動的パラメータはすぐに適用され、静的パラメータは再起動により適用される。
– リードレプリカを作成するときはスナップショットから読み取り専用インスタンスを作成し、バックアップ保持期間を0以外にし、自動バックアップを有効にする。
– RDSAPIやAWSCLIを使用してインスタンスを作成する場合、バックアップ保持期間は1日、マネコンは7日
– 自動バックアップを無効にすると自動バックアップの全てのデータが削除される。
– プライマリインスタンスを削除する前にリードレプリカを全て削除する必要がある。## Amazon Aurora
– フォールトインジェクションクエリを使用して、AuroraDBクラスター
WorkDocs で、ゲストユーザーの招待の挙動を確認する
# はじめに
WorkDocs では、Directory Service に所属していないユーザーを、ゲストユーザーとして招待が可能です。ゲストユーザーを招待したときに、Directory Service 側にどのようなユーザー情報が登録されるか不明だったので、検証してみます。
# 管理者側 : ゲストユーザーを招待する
ゲストユーザーは、管理コントロールパネル上で招待できます。管理者ユーザーでログインして、画面右上のアイコンをクリックします。
![image-20220708010250716.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/1002774/9dd9dca5-84a8-74c6-86b6-de938482d624.png)
管理コントロールパネルを開く をおします。
![image-20220708010316391.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/1002774/262
必見!クラウドプラクティショナーの出題範囲のサービスを一枚にしました
[個人ブログ](https://twelve.tk/cloud-practitioner-all-in-one/)からの転載です。
—
クラウドプラクティショナーは入門クラスの資格ではありますが、ITの基礎知識が必要なだけでなく、結構多数のAWSサービスが出題範囲になっています。試験ガイドに記載のあるサービスは**約60個!**(文末に全部記載)結構きついと思いますので、少しでも覚えやすくするために、ストーリーのある構成図にしてみました。
![CloudPractitioner_All_Services-ja (1).png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/41574/4060b602-9607-eb42-92ee-c478cf8f78a4.png)
高解像度のPDF/PNGファイルは[こちら](https://twelve.tk/cloud-practitioner-all-in-one/)。
—
# 1. High Availability Web System
![
Amazon WorkDocs を作成してみた
# はじめに
今回は比較的シンプルな記事です。Amazon WorkDocs の作成方法が、新しい GUI でまとめられているものがなかったので、QuickStart 的に作成方法を整理します。
Amazon WorkDocs は、コンテンツの作成、ストレージ、コラボレーション用の安全なフルマネージド型サービスです。いわゆるファイル共有をコアに据えた、コラボレーション用のサービスと言えると思います。社内の共有はもちろんですが、社外でもゲストユーザーアクセスや共有リンクなど、簡単にファイル共有できます。
WorkDocs を構成するために、Directory Service との連携が必要です。
– Microsoft AD
– Simple AD
– AD Connector記事の環境では、Microsoft AD で確認をしていきます。
# Microsoft AD の作成
Directory Service の画面を開き、Set up Directory を選択します
![image-20220708193655889.png](https://qiita
【AWS IAM】AWS IAM Roles Anywhereを、自己署名のプライベートCA局で試してみる
# はじめに
先日、AWS IAM Roles Anywhereなるサービスが発表されました。
下記、公式blog記事に丁寧に書いてあるので詳細は割愛しますが、X.509証明書を用いてAWS Temporary Security Credentials (i.e. AccessKeyId/SecretAccessKey/SessionTokenの組み合わせ)を取得し、これを用いてAWS S3/DynamoDB等のAWSサービスを利用できる仕組みとなります。Extend AWS IAM roles to workloads outside of AWS with IAM Roles Anywhere | AWS Security Blog
https://aws.amazon.com/jp/blogs/security/extend-aws-iam-roles-to-workloads-outside-of-aws-with-iam-roles-anywhere/# 本稿の動機
公式blog記事は丁寧に書いてあり、記載に従えば一通りの挙動は検証できるようになっていますが、プライ
【AWS】Amazon Transcribeで動画の文字おこしをやってみた
こんにちは
今回の記事は、AWSのAmazon Transcribeを使って、動画の文字起こしのやり方を解説します。動画で喋っている内容を、簡単にテキストにしてみましょう。## Amazon Transcribeとは?
Amazon Transcribeとは、音声を自動で文字に変換するツールです。音声データはもちろん、動画などのデータからでも文字起こしをすることができます。
さらに、カスタマイズをすることで、製品名/専門用語/個人名などのドメイン固有の単語やフレーズのより正確な文字起こしを生成できます。詳しくは、こちらのドキュメントをご覧ください。
参考:[Amazon Transcribe](https://aws.amazon.com/jp/transcribe/ “Amazon Transcribe”)## Amazon Transcribeで文字起こしをやってみる
では、早速、Amazon Transcribeを使って、動画の文字起こしをやってみましょう。手順としては、以下の通りです。
+ S3の作成
+ S3で動画をアップロードする
+ TranscribeでJo
【Data + AI Summit 2022】McAfeeがDatabricks on AWSを大規模に活用する方法
# はじめに
2022/6/27(月)~2022/6/30(木)に開催されたData & AI Summit 2022に関する最新情報をお知らせします。
本記事では、[McAfeeがDatabricks on AWSを大規模に活用する方法](https://dataaisummit.com/session-virtual/?v2477da705118cc74fd14460db021e1784e2eed5a7982c6482ec95cb2e86d259644b8741959f52a49e0e6908b82a9d860=A631D469348D640B7F3695570773A71CA4DD9B8565F014582F31ED522290929FA6EBDF3CFCDF0B9FDBFBFD874E55F5C0)を翻訳してまとめました。# アジェンダ
Databricks on AWSとはなにか?McAfeeがDatabricks on AWSをどのように運用したか、そのために何をしたか、移行と運用の両方についての話です。
・Databricks on AWSの簡単な概要
・McAf
EC2 Classic 環境廃止の確認(Macの場合)
EC2 Classic 環境が 2022年8月15日に廃止になるということで確認した時のメモ
Macでやりました
# セットアップ
・Python 割愛
・pip割愛ちょっとハマったところ
実行したら下記のようなメッセージをいただいた
“`
Traceback (most recent call last):
File “/Users/xxx/Documents/work/ec2-classic-resource-finder/py-Classic-Resource-Finder.py”, line 27, in
import boto3
ModuleNotFoundError: No module named ‘boto3’
“`こちらを参考にさせていただいてboto3をセットアップ
https://qiita.com/hiroyuki7/items/a2246511a4f24a75f02dチェックスクリプトはこれ
https://github.com/aws-samples/ec2-classic-resource-finder
Amazon SageMaker Studioにデフォルトで用意されているコンテナイメージのECRのURIを見つける方法
# はじめに
Amazon SageMaker StudioにはデフォルトでPyTorch、TensorFlowなどを組み込んだコンテナイメージが用意されています[^1]。このコンテナイメージを別の場所(AWS Batch)でも使いたくてECRのURIが書かれているドキュメントを探したのですが、見つからずに苦労した[^2]ので、備忘録として残しておきます。# ECRのURIの見つけ方
`/opt/.sagemakerinternal/internal-metadata.json`にECRのURIが記載されています。
例えば下記のようにしてこのJSONファイルを開くことで、ECRのURIが分かります。1. SageMaker Studioを開く
2. File -> New -> Terminal でターミナルを開く。
3. 下記のコマンドを実行する。
“`
cat /opt/.sagemakerinternal/internal-metadata.json
“`注意点として、将来的には動作が変更になる可能性があります。
# 参考:2022/0
API Gateway、Lambda(Node.js)、DynamoDB を使ったAPIの作り方
API Gateway、Lambda、DynamoDB を使ったAPIの作り方を備忘録も兼ねて記載します。
プログラム言語にはNode.jsを利用します。# システム構成
システム構成は以下のようになります。
![AWS.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/2348676/d172c951-87f7-ef41-4bb4-cf660f65d99b.png)# システム概要
今回はサンプルとして、DynamoDBに格納されているイベント情報をPOSTリクエストで取得して、Jsonを出力するAPIを作ります。# 1. DynamoDBにテーブルを作成
最初にイベント情報を格納するテーブルを作成します。
![dynamodb1.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/2348676/c813f1e4-6c70-8b35-a53a-57a532ede10a.png)テーブル名は **event**、
Amazon ConnectとAmazon Chime SDKを連携してビデオ機能が利用できる問合せシステムを試してみた
# 1.はじめに
コンタクトセンター最適化支援チームのbayashiです。一般的にコンタクトセンターでは電話音声やテキストチャットを通してお客様と応対することが多いですが、ビデオ機能としてWebカメラ、またはPCの画面共有を活用できればより利便性の高いカスタマーサービスを提供できると思います。
AWSサービスのAmazon Connectでは標準でビデオ機能は提供されていませんが、AWS公式ブログにAmazon Chime SDKと連携してビデオ機能が使えるシステムを紹介されていたので、実際に構築して動かしてみました。・Video-Call Escalation powered by Amazon Connect and Amazon Chime SDK
https://aws.amazon.com/jp/blogs/business-productivity/video-call-escalation-powered-by-amazon-connect-and-amazon-chime-sdk/
https://github.com/amazon-connect/video-
AWS CLIを使ってVMWare・Hyper-Vなどの仮想データをAWSのEC2上に移行したい
## 簡易流れ
・移行元の仮想データエクスポート
・AWS S3に仮想データアップロード
・S3からAMIイメージインポート
・AMIからEC2インスタンス起動
・各ネットワークなどの設定をする## VMImport参考手順
## S3へのアップロードは160GB以上であればAWS CLIでのアップロード作業が必要
https://qiita.com/seyself/items/43426f57c50021ea55f8※Web画面からのアップロードと同時にCLIのアップロードなどしていたら失敗する事があった、
1つずつの方が安全かと思われる## マルチパートアップロード時の問題
ファイルのアップロードが中途半端な状態で終了してしまった場合、中途半端なデータが裏側で残り課金され続ける## AMIへの複数仮想データファイルインポート方法
### AWS EC2ユーザーガイド
オンプレミスとEC2 AutoScalingで負荷分散できる構成を検討した
# 概要
負荷が小さい夜間はオンプレミスのみ、負荷が大きい日中はEC2 AutoScalingでインスタンスを増やしハイブリッドに処理を分散させたいという要件があり、構成を検討しました。## 課題
日中のみAutoScalingを稼働させるのはScheduled scalingで実現できるので、オンプレミスとEC2で負荷分散させる方法を考えました。
httpリクエストを受け付けるシステムのため、前段にはALBを配置します。オンプレミスのサーバーをターゲットにするため、ターゲットグループはIPターゲットにする必要があります。しかしIPターゲットにするとAutoScalingが新しいインスタンスをターゲットグループに自動登録してくれません。https://docs.aws.amazon.com/ja_jp/autoscaling/ec2/userguide/getting-started-elastic-load-balancing.html
> ターゲットグループは、`instance` のターゲットタイプを指定する必要があります。Auto Scaling グループを使用する場合