AWS関連のことを調べてみた2022年02月10日

AWS関連のことを調べてみた2022年02月10日
目次

AWS 勉強メモ ~S3~

●S3(Amazon Simple Storage Service)
S3はAWSの提供するオブジェクトストレージである。
データ容量・ファイル数は無制限で、配置した容量に課金される。(ただし1つのファイルは5TBまで)
データは少なくとも3つのAZに配置され、99.99999999%(イレブンナイン)の耐久性を持つ

●オブジェクトストレージとは
データを「オブジェクト」という単位で扱う記憶装置。
ディレクトリ構造で管理するファイルストレージとは異なり、データサイズやデータ数の保存制限がないため、大容量データの保存に適している。

S3ではアカウント内で「バケット」を作成し、配置するファイルを「オブジェクト」と呼ぶ。
「プレフィックス」を付けることでディレクトリのような見た目で管理できるが、実際には階層関係はない

例)
S3://ExampleAWSbucket/Logistics/packing-list.pdf

バケット名:ExampleAWSbucket
プレフィックス:Logistics
オブジェクト名:packing-list.pdf

●可用性・データ整合性
S3に

元記事を表示

ControlTower⑤Auditアカウントに作成されるリソースについて

[前回](https://qiita.com/tonkatsu_oishi/items/281ad127699115ff54c3)はControlTowerのマスターアカウント上でガードレールの追加・削除設定を行いました。
今回は、ControlTowerによって作成されているAuditアカウント、LogArchiveアカウントのリソースの確認を行います。

## ControlTower関連リンクまとめ
[・ControlTower①マルチアカウント環境をセットアップする](https://qiita.com/tonkatsu_oishi/items/6890ecc24c3b3bf8ee32)
[・ControlTower②環境確認](https://qiita.com/tonkatsu_oishi/items/b6dc3d548461d21b440d)
[・ControlTower③SSOの確認・アカウントの追加・削除](https://qiita.com/tonkatsu_oishi/items/281ad127699115ff54c3)
[・ControlTower④ガードレー

元記事を表示

【Docker】よく使うDockerコマンドまとめ

#はじめに
よく使われるDockerコマンドをまとめております。

#Dockerのインストール
Dockerをインストールは、基本的にDocker公式サイトに準じていただければと思います。

https://docs.docker.jp/engine/installation/linux/index.html

#よく使うDockerコマンド

1.Dockerのバージョン確認

“`
docker version
“`

2.Dockerイメージ一覧

“`
docker images
“`

3.Dockerイメージの削除

“`
docker rmi <イメージID>
“`

4.Dockerコンテナの削除

“`
docker rm <コンテナID>
“`

5.すべてのDockerコンテナ状態確認

“`
docker ps -a
“`

6.現在起動中コンテナの確認

“`
docker ps
“`

7.コンテナ内部に入るコマンド

“`
docker exec -i -t <コンテナ名またはコンテナID> bash
“`

8.docker

元記事を表示

AWS GreengrassにComponentをデプロイする

## まとめ
* AWS入門ハンズオンを参考に、RaspberryPi4をGreengrassコアデバイスとしてセットアップし、コンポーネントのデプロイまで一度実施済み。[AWSハンズオンリンク](https://catalog.us-east-1.prod.workshops.aws/v2/workshops/5ecc2416-f956-4273-b729-d0d30556013f/ja-JP/)
* コンポーネントの作成は、ローカルにRecipeとArtifactを置いた状態からCLIコマンドで作成と、S3にArtifactを置いてから、コンソールから作成するパターンの両方を試していた。
* 数週間経った後で、改めてコンポーネントの作成とデプロイを実施しようとしたら、何箇所かつまづいたので、つまづいた箇所の記録をこの記事に残す。

## つまづいた箇所
* **つまづき:** コンポーネント作成の際に、S3にアクセスできずFailedが返ってくる。
* **解決:**[こちらのAWS Document](https://docs.aws.amazon.com/greengr

元記事を表示

ポートフォリオとして、If-Thenプランニングを活用した習慣化アプリを作成しました [Laravel / AWS]

# はじめに
### 記事の目的
**ポートフォリオとして作成したWebアプリケーションの紹介記事です。**

こちらのURLで公開中です。
https://rickeysan.com
また、Githubのコードはこちらです。
https://github.com/rickeysan/ifthen_plan_app

言語/フレームワークはPHP/Laravel、開発環境はLaradock、本番環境はAWS(EC2,RDS,S3など)を使用しました。

また、アプリ自体のご紹介のほか、開発過程についても触れていきます。

## 作成した人

– 2021年3月に都内の理系大学院(化学)を終了し、化学メーカーに生産技術職として入社
– 2021年5月から独学でフロント・バックエンドの学習を開始(現在、9ヶ月目)
– 働きながら勉強するのは大変でしたが、今ではプログラミングの面白さに魅了されています!!

目次は以下のとおりです。
[1. アプリの概要](#1-アプリの概要)
[2. アプリの特徴](#2-アプリの特徴)
[3. アプリの機能一覧](#3-アプリの機能一覧)
[4. 使用

元記事を表示

S3で指定バケット配下のファイル一覧を取得する

# はじめに
こんにちは、株式会社ジールの[@Suguru-Terouchi](https://qiita.com/Suguru-Terouchi)です。
今回はS3バケット配下のファイル一覧を取得する方法について記載したいと思います。

はじめに断っておきますと、執筆(2022/02/09)時点で
AWS-CLIを使って簡単(ここ重要)にファイル一覧を取得する方法は実はありません。

Google先生に聞いてみても、なかなか良い方法が見つかりませんでした。
Pythonが得意な方はちゃちゃっとプログラムも書いて実装されている方もいましたが、
そこまでのモチベーション()がない方向けにTipsとして残しておきます。

# ファイル一覧を取得する方法
前置きが長くなりましたが、早速、本題の方法について記載していきたいと思います。

aws s3 ls s3://任意のバケット名/ –recursive

以上です。
この`–recursive`というオプションを追加することで
指定バケット配下のフォルダ含めて全てのファイル一覧を出力することが出来ます。

ただし、この方法には

元記事を表示

【AWS】AmazonConnectのContactLensで結果が反映されなかった話

#1.概要
どうも、ARIの名古屋支社に勤務している愛知県民です♪
(/・ω・)/

**AmazonConnectでContactLensを使う時にWebの記事通りに設定したつもりが、
結果が反映されずに沼ったので、解決した方法をまとめてみました。**
(一番最初の設定の時に参考にしたWebの記事は[こちら](https://tech.systems-inc.com/col-aws-cn2/)となります。)

自分と同じくContactLensの結果が見られない人の助けになれば幸いです。

最後に、この記事が面白いと思った方はLGTM、ストックしていただけると励みになります♪
(*^^)v

#2.NGパターンその1
##2.1.コンタクトフロー・セキュリティプロファイルの設定
まず初めに、ダメだった時の設定情報を示します。
コンタクトフローの設定および「記録と分析の動作を設定」ブロックの設定を以下に示します。
また、「プロンプトの再生」ブロックでは「コンタクトレンズのテスト」というテキストを読み上げています。

|![インバウンドフロー.png](https://qiita-im

元記事を表示

テスト投稿です

テスト投稿です

元記事を表示

S3 クロスリージョンレプリケーションについて

## はじめに
AWS SAAの対策を必死にしている。
問題でつまづいた点などをこのQiitaにまとめておく。

## レプリケーションとは
レプリケーションとは、「複製」ということらしい。
レプリカという言葉なら馴染みがあるかもしれない。
この言葉から、レプリケーションは来ている。

## クロスリージョンレプリケーションとは
S3ではクロスリージョンレプリケーションという仕組みが備わってる。
これは、異なる2つのリージョン間にあるS3バケットを、自動的に非同期でコピーしてくれる仕組みらしい。

元記事を表示

アプリケーションのクライアント側のパフォーマンスをモニタリングする Amazon CloudWatch RUM の紹介

## はじめに

![image.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/534812/504dbb05-854a-7411-0bc4-404dfed5f8ec.png)

> Amazon CloudWatch RUM は、リアルユーザーモニタリング機能であり、ウェブアプリケーションのクライアント側の問題を特定してデバッグし、エンドユーザーのデジタルエクスペリエンスを強化するのに役立ちます。
> CloudWatch RUM を使用すると、アプリケーションデベロッパーと DevOps エンジニアは、より迅速な解決が可能になることで、クライアント側のパフォーマンスの問題解決に要する平均時間 (MTTR) を短縮することができます。Amazon CloudWatch RUM は、Amazon CloudWatch Synthetics および Amazon CloudWatch Evidently とともに、CloudWatch のデジタルエクスペリエンスモニタリングの一部です。
>
> Clo

元記事を表示

AWS キーペアのインポート用の公開鍵作成はopensshコマンドでやろう

あるAWSアカウントでキーペアを自動生成した。公開鍵は自動的にAWSのキーペアサービス上に格納され、秘密鍵がローカルにダウンロードできる形になる。
その後、別のAWSアカウントで同じ秘密鍵を利用したいとなった。公開鍵はキーペア作成時にダウンロードされず手元にないので、秘密鍵から公開鍵を作成する。
秘密鍵からの公開鍵作成は以前何度かしたことがある気がしていて、opensslコマンドかputtygenだなって思ってた(これは間違い)。
で、秘密鍵をputtygenに食わせて公開鍵を作成。AWSの新アカウントのキーペアでインポートOK。EC2インスタンスを新規作成してそのキーペアを指定して起動。で普通に秘密鍵でSSHしようとしたら、ログインが弾かれる(泣)
puttygenで作る鍵ってちょっと特殊なイメージがあって(WinSCPとかで使うとかなんとか)、puttygenじゃだめなのかな?って思って、適当なLinuxサーバでopensslで秘密鍵を食わして公開鍵を作成。それをキーペアにインポートしようとすると、そもそもフォーマットが違うって蹴られて登録できない。あれーー??? この辺で、鍵長の

元記事を表示

AWSChatbotでAWSリソースを取得しSlackに通知させてみた。

#はじめに
AWSChatbotを使用すれば、AWSリソースの変化をSlackに通知する仕組みを簡単に作ることができます。

例えば、ある特定のリソースがCloudwatchアラームで設定した閾値を超えると、その情報をSlackの指定したチャンネルに通知してくれます。

アラート対応時は、情報が不足しており、AWSコンソールに入って詳細を確認しますが、このように情報をSlackに飛ばす仕組みを作ることができれば、問題の特定や切り分けが素早くできるため、結果障害対応の品質を上げることにも繋がるのではないでしょうか。

今回参考にした記事は以下の記事です。

[Slack と AWS Chatbot で ChatOps をやってみよう](https://aws.amazon.com/jp/builders-flash/202006/slack-chatbot/?awsf.filter-name=*all)
[AWS Chatbot を使って Slack チャネルで Amazon EventBridge イベントを監視](https://aws.amazon.com/jp/blogs/ne

元記事を表示

AWSアカウント 作成日、利用開始日、無料利用期間を確認する方法

作成したAWSアカウントの無利用利用期間はいつまでだったっけ?
と思いつつ、調べるのを後回しにしていた。
⇒調べてみたけど、ずばり「何日から利用しているか?」は良くわからなかった
⇒が、何月から利用しているかは確認できた。

◆確認方法
AWSにサインイン
「アカウント名」⇒「請求ダッシュボード」⇒左ペインの「請求書」
![aws利用開始日.jpg](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/718245/52f9f551-5990-b0d9-52f0-9dc74846dfc4.jpeg)

↑2021年9月から使用していることがわかった。
(けど、何日から利用しているのかは不明。
 わかる人教えていただけたらうれしいです)

以上、よろしくよろしくです。

元記事を表示

AWS SSO で組織の管理アカウントに割り当てを行うと AccessDenied が発生する

## 事象
AWS SSO で AWS Organizations の管理アカウントにユーザーやグループの割り当てを行うと以下のように AccessDenied が発生してしまうケースがある。

““
Access denied by IAM. Please check your policy, or wait for role propagation to complete.
IAM Error: User: arn:aws:sts::123456789012:assumed-role/AWSReservedSSO_DelegatedAdmin_xxxxxxxxxxxxxxxx/user@example.com is not authorized to perform:
iam:GetSAMLProvider on resource: arn:aws:iam::123456789012:saml-provider/AWSSSO_yyyyyyyyyyyyyyyy_DO_NOT_DELETE
(Service: AmazonIdentityManagement; Status

元記事を表示

Laravel 9.x「 AWS Cloud9+Amazon Linux2 」で開発環境を作る

#この記事は「サポート解説動画を用意」しています

早く教えて~って方はページ下部の動画も見てください。

#1.PHPセットアップ
次の順番でコマンドを実行していけば環境が作れます!!

“`bash:PHP8アップデート

#<重要!!必ず1行ずつコマンドを打つこと!>
// パッケージのアップデート
sudo yum update -y

// composerバージョンアップ
sudo composer self-update

// PHPのパッケージをすべてアンインストール
sudo yum -y remove php-*

// amazon-linux-extrasをアップデート
sudo yum update -y amazon-linux-extras

// amazon-linux-extrasで使用中のパッケージと使えるパッケージを確認
amazon-linux-extras

// lamp-mariadb10.2-php7.2を使用停止
sudo amazon-linux-extras disable lamp-mariadb10.2-php7.

元記事を表示

AWS SQS+lambda連携 batchsize, batchwindowについて図解する

batchsize, batchwindowがよく理解できていなかったのでメモ。
「batchsize batchwindow image」とかで調べてもしっくり来るイメージが見つからなかったので、図解してみたいと思います。
# batchsize, batchwindowとは?
**batchsize**: lambdaを実行するための入力 (メッセージ)の単位の数。100にしたら基本は100個単位でlambdaが実行される。
だとしたら **例えばSQSに120個メッセージが来たら残り20個は次の80個が来るまで実行されないのか?と思うが、それだと不便すぎるのでそこを調整するのがbatchwindow。**
**batchwindow**: メッセージの待ち時間。例えば10秒に設定したら、batchsizeより少ないメッセージ数でも強制的にlambdaの入力として送るようにする。
メッセージ元がSQS/SNS/Kinesis/DynamoDB/S3でも共通の考え方のはずです。
# 図解
例えばメッセージがbatchsize=10, batchwindow=10sの状態で流れ込んでき

元記事を表示

Amazon Elastic Container Service(ECS)のBlack Belt を文章でまとめてみた

# はじめに

AWSのECSを勉強するためにBlack Belt Online Seminerを視聴したので内容をまとめます。

# 背景

著者は転職活動中ですが、志望する企業でDevOpsの知識が必要となるため、第一歩としてECSについて学習します。

# ECSとは
– クラウドでコンテナを本番番環境利用するためのオーケストレーター。
– 各種AWSサービスとの連携が可能。

## 主要要素

![image.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/951272/523b9353-7745-0cd6-3a24-1e1523affc7f.png)
###4つの主要要素
– タスク定義:タスクを構成するコンテナ群定義。
– クラスター:実行環境の境界
– タスク:タスク定義に基づき起動されるコンテナ群(実際の実行の単位)
– サービス:決められた数にタスクをコピーして維持する

## 起動タイプ
– E

元記事を表示

既存ファイルサーバ名を引き継いでFSx for Windows File Serverを使用する

# 内容
AWS公式手順でFSXに既存ファイルサーバ名を引き継ぐ設定をやってみた
FSXにDNSエイリアス設定後、Kerberos認証を有効にするためSPNの設定、DNSにCNAMEレコードの更新または実施
CNAMEの設定箇所で既存ファイルサーバのCNAMEは置き換えられるが既存ファイルサーバのAレコードがあるとエラーになる
その場合はAレコードを削除してからCNAMEレコードを作成する

## やりたいこと
* FSxでファイルシステム作成時DNS名「(例)amznfsx57en0pst」が払い出される
* これだとクライアントPCからは\\\amznfsx57en0pstでアクセス出来る
* 既存ファイルサーバ名はAWSFileSV.awstest.localであると仮定
* 既存ファイルサーバから切替後、FSxに\\\AWSFileSV.awstest.localでアクセスしたい
* あと追加で\\\AWSFileSV2.awstest.localでもアクセスしたい
* 念のためFSxのIPアドレス「(例)\\\10.50.30.25」でもアクセス出来るか確認

## FSxフ

元記事を表示

【AWS】CodeBuildでNodeのバージョンを指定する方法

ここ最近学業と就活が忙しく、全く記事が書けていないのですが、久しぶりに書きたい内容があったので書きます。

タイトルにも書いてあるとおり、今回はAWS CodeBuildでNodeのバージョンを指定します。

AWSはNodeのバージョンは10、12、14はサポートしているのですが、それ以上のバージョンはサポートされていません。

最近ではNodeの推奨バージョンが16になったので、なんともかゆいところに手は届きませんね。

そこで、2週間ほどネットサーフィンをしたところ解決に至りました。

# 結論

CodeBuildの環境イメージを以下に設定。

|ラベル|値|
|—|—|
|オペレーティングシステム|Ubuntu|
|イメージ|最新|
|イメージのバージョン|最新|
|環境タイプ|Linux|

Buildspecの“install“フェーズで任意のバージョンを指定。

“`buildspec.yml
version 0.2

phases:
install:
runtime-versions:
nodejs: 14 //ここはサポートされ

元記事を表示

CloudWatch から S3 のストレージ使用量推移を取得する(シェルスクリプト版 + Python版)

## はじめに

S3 の容量推移を取得する方法は色々あります

– Cost Explorer で取得する

Web コンソールの請求ダッシュボードから Cost Explorer を表示し、フィルタを以下のように指定すれば
S3 の全バケットの使用量と、それによるコストの推移が表示されます

– サービス=S3
– 使用タイプグループ=Storage – Standard

![cost-explorer.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/1485835/7aa127b8-24a5-8c38-b2ab-c9cc83f611ef.png)

– CloudWatch で取得する

Web コンソールの CloudWatch から「すべてのメトリクス」を表示し、
S3 のバケット、 StandardStorage を選択すればバケット毎の使用量推移が表示されます

![cloudwatch.png](https://qiita-

元記事を表示

OTHERカテゴリの最新記事