- 1. test3
- 2. AWS Solution Architect – Professional (SAP-C02) 受験体験記
- 3. 【AWS】サイト間VPN接続のアクセラレーション効果はどのくらいか
- 4. AWS CLI プロファイル設定
- 5. AWS Certified Cloud Practitioner CLF-C02 Exam Part 5
- 6. AWS Certified Cloud Practitioner CLF-C02 Exam Part 4
- 7. LambdaでBedrockのClaude 3を呼び出してみた
- 8. ローカル環境のStreamlitにAmazon Cognitoで認証をかける
- 9. AWS SAAに合格しました
- 10. AWS Lambda + Pythonで簡易LINEBOT作ってみた
- 11. 【AWSクラウドリフト化】オンプレミス(DC)環境・AWS環境に関する長所の比較
- 12. Aurora for PostgreSQL の Blue/Green を利用したメンテナンスをやってみた
- 13. DynamoDBトランザクションの使い方
- 14. 会話の記憶を持つLINEチャットbotをAWS Lambda+DynamoDBで実装する【Python3】【GPT-4】
- 15. Amazon EC2 Auto Scalingを整理してみた
- 16. 【初参加レポート】JAWS DAYS 2024に参加して良かったこと(後押しして欲しい人向け)
- 17. AWSにおけるストリームデータ処理サービス概要 Amazon MSK / Amazon KDS
- 18. AWS Lambdaで翻訳APIをつくってみた
- 19. CodePipelineの最後にCloudFrontのキャッシュを自動で削除する
- 20. CloudTrailの操作履歴ログをAthenaで分析する手順
test3
~~~
# variables.py# 定义两个VPC及其子网配置
vpcs_config = {
“vpc1”: {
“cidr_block”: “10.0.0.0/16”,
“subnets”: [
{
“cidr_block”: “10.0.1.0/24”,
“availability_zone”: “us-east-1a”,
“tags”: {
“Name”: “MySubnet1-VPC1”,
“Project”: “ProjectName”
}
},
{
“cidr_block”: “10.0.2.0/24”,
“availability_zone”: “us-east-1b”,
AWS Solution Architect – Professional (SAP-C02) 受験体験記
## はじめに
先日、AWS Solution Architect – Professional (SAP-C02)を取得してきましたので、学習に利用した教材や所感をまとめました。
これから学習される方の参考になれば幸いです。## AWS Solution Architect – Professional とは
以下公式のリンク先の説明となります。
> この資格は、認定を受けた個人が、複雑な問題に対する複雑なソリューションの提供、セキュリティ、コスト、パフォーマンスの最適化、および手動プロセスの自動化における高度な知識とスキルを証明するために役立ちます。この認定は、組織がクラウドイニシアティブを実施するための重要なスキルを備えた人材を特定して育成するための手段です。
https://aws.amazon.com/jp/certification/certified-solutions-architect-professional/
## 事前知識
– AWS SAPは3年前に一度取得しています。
– 今回は、資格更新のための受験ですが、更新用試験ではないため、学習
【AWS】サイト間VPN接続のアクセラレーション効果はどのくらいか
## 0. はじめに
運用拠点等とVPCをIPSecでセキュアに接続するための機能としてサイト間VPN(AWS Site-to-Site VPN)がありますが、AWS Global Acceleratorを使って高速化するAcceleratedサイト間VPNオプションがあることはご存知でしょうか。このオプションについて、実際にどの程度効果があるものなのかわからなかったため、簡易的に検証してみました。
> Acceleratedサイト間VPNオプション
> 引用元:[202110 AWS Black Belt Online Seminar AWS Site-to-Site VPN](https://www.slideshare.net/AmazonWebServicesJapan/202110-aws-black-belt-online-seminar-aws-sitetosite-vpn)
> ![image.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/3571868/73140c76-33ee-1c
AWS CLI プロファイル設定
よく使うのに忘れるので備忘録として
### プロファイルの確認
プロファイルを切り替え運用している場合は以下で確認可能
プロファイル機能を使っていない場合などは空のこともある
“`sh
echo $AWS_PROFILE
“`
現在設定されているAWSの宛先は以下から確認できる
“`sh
aws configure list
“`
### 現在登録されているプロファイルのリスト
“`sh
aws configure list-profiles
“`
### プロファイルの新規作成
“`
aws configure –profile {新規に作成したいプロファイル名 xxxx-stg等}
AWS Access Key ID [None]: XXXXXXXXXXXXXXXXXXXXX
AWS Secret Access Key [None]: XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX
Default region name [None]: ap-northeast-1
Default output format [None]:
AWS Certified Cloud Practitioner CLF-C02 Exam Part 5
The actual exam version for the AWS Certified Cloud Practitioner CLF-C02 Exam in 2024. I have just passed this exam and I want to share a very helpful website.
Source: [AWS Certified Cloud Practitioner CLF-C02 Exam Part 5](https://awslagi.com/aws-certified-cloud-practitioner-clf-c02-exam-part-5/)
Q241. Which of the following are benefits of using AWS Trusted Advisor? (Choose two.)
A. Providing high-performance container orchestration
B. Creating and rotating encryption keys
C. Detecting under
AWS Certified Cloud Practitioner CLF-C02 Exam Part 4
The actual exam version for the AWS Certified Cloud Practitioner CLF-C02 Exam in 2024. I have just passed this exam and I want to share a very helpful website.
Source: [AWS Certified Cloud Practitioner CLF-C02 Exam Part 4](https://awslagi.com/aws-certified-cloud-practitioner-clf-c02-exam-part-4/)
Q181. A company wants to operate a data warehouse to analyze data without managing the data warehouse infrastructure. Which AWS service will meet this requirement?
A. Amazon Aurora
B. Amazon Redshift
LambdaでBedrockのClaude 3を呼び出してみた
[Supership](https://supership.jp/)の名畑です。[プリティーリズム・レインボーライブ10周年展](https://www.0101.co.jp/086/event/detail.html?article_seq=123730&article_type=sto)おめでとうございます。とても楽しい展示でした。
## はじめに
[Anthropic](https://www.anthropic.com/)がリリースした[Claude 3](https://www.anthropic.com/news/claude-3-family)が話題です。
– [Anthropic、AIチャット「Claude 3」を3サイズで 日本語力も向上 – ITmedia NEWS](https://www.itmedia.co.jp/news/articles/2403/05/news089.html)
– [GPT-4超えをアピールするClaude-3がAIで初めてIQ100超えを達成したという報告 – GIGAZINE](https://gigazine.net/new
ローカル環境のStreamlitにAmazon Cognitoで認証をかける
みなさま、Bedrockしてますか?
Streamlitを使ったBedrockのデモアプリが出来上がったら、いろんな人に使ってもらいたいですよね。AWS上で構築する場合は、CognitoとALBを組み合わせると簡単にログイン機能が実現できます。
https://docs.aws.amazon.com/ja_jp/elasticloadbalancing/latest/application/listener-authenticate-users.html
https://repost.aws/ja/knowledge-center/cognito-user-pool-alb-authentication
ただ、デモとして作ったものをちょっと動かすために、EC2を構築するのは少し面倒ですし、インターネット公開は抵抗があるかもしれません。
* EC2を起動するほどではないのでローカル環境で動作させたい
* 利用者を限定したいので認証機能はほしいこんな要件を満たせないか調査したところ、良い方法が見つかりましたのでご紹介します。
## アーキテクチャ
`Oauth2 Pr
AWS SAAに合格しました
# はじめに
AWS SAAに(予定よりも遥かに遅れて)合格したため、振り返りと備忘録を兼ねてやったことをまとめておきます。# 投稿者の情報
– 情報系大学出身、(ギリ)2年目
– 所持資格:IPA FE/AP/SC/DB
– AWSの業務経験:約1年程度
– AWS SAA受験回数:2回目
※業務が暇になった時期に大した勉強もせずノリで受けて落ちました# 受験の感想と結果
![image.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/3748131/5036e83e-55d8-b5e8-88b3-99b40f646bd4.png)
受験結果ですが、合格点720点に対して823点での合格でした。
AWSの資格は65問の出題に対し50問が採点対象、15問が難易度調整用(?)となっており、100~1000点の範囲で得点が付きます。
問題ごとの配点は明らかではないですが、大体8割程度の得点率でした。受験後の温度感としては、6割は確実、7割はやや不安といった感じだったので思ったよりも点数が取れてい
AWS Lambda + Pythonで簡易LINEBOT作ってみた
## 作った経緯
LINEBOTを作ったら便利なのではという機会があったので、とりあえず簡易版を作ることにした。最初はAzureBotService + C#でやっていたがテストBotのデプロイがうまくいかなかったため、AWSLambda + Pythonに変更
## 前提
LINE DevelopersでWebhookを利用できるBotを作成している。## やったこと
### AWS Lambdaで関数を作成する
1. AWSコンソールに飛び、Lambdaを検索する
1. 「関数を作成」をクリックする
1. 適切な関数名を設定
1. ランタイムでPythonを選択
1. 「関数の作成」をクリックする
1. 画面が戻った後、求めているBOTのコードを記述する#### これで関数の作成は完了!
コードの複雑度によっては、ライブラリのインストールが必要ですが今回は標準のみなので省きます。
### API Gatewayの追加
1. トリガーを追加する
1. API Gatewayを選択する
1. Create a new APIを選択する
1. HTTP APIを選択する
【AWSクラウドリフト化】オンプレミス(DC)環境・AWS環境に関する長所の比較
# はじめに
AWSクラウドへのリフト化を提案する際、要件定義を進める上でお客様への説明や、既存環境の運用(設計)担当者との認識共有のために、EC2を用いたAWSクラウド環境でのアーキテクチャ図を作成いたします。
AWSに理解のある方との認識共有では前述の図のみで十分ではございますが、お客様からの理解を得るためには既存環境とのギャップを埋める手順をもう一段階踏む必要があると考えております。
こちらの課題を解決する一手法として、実際に稼働している基盤機器類がどのAWSサービスに該当するか、図示することが考えられます。:::note
用語について
・AWS環境:AWSクラウドに構築された環境
・オンプレミス環境:データセンターに構築された環境
本稿では上記内容とご認識ください。
:::
本稿では一般的なデータセンターのホスティング機器類の配置を記したラック図からAWSサービスへの落とし込みを行います。また、一層お客様より理解を得るため、AWS環境とオンプレミス環境それぞれの長所を記しました。# オンプレミス環境とAWS環境の比較
### それぞれの環境における構成図
Aurora for PostgreSQL の Blue/Green を利用したメンテナンスをやってみた
# はじめに
以前 Aurora for PostgreSQLのフルマネージドの Blue/Green デプロイを利用して 13.2 ⇒ 15.4 バージョンアップを行う形を試してみました。(Blue/Greenデプロイの説明はそちらに記載がありますので、基本的なことを確認したければ、以下を参照ください)
– [Aurora for PostgreSQL の フルマネージド Blue/Green デプロイを試してみた](https://qiita.com/asahide/items/0914ac4132169220ae5f)今回は Blue/Green を利用して 稼働中のデータベースに対してメンテナンス(テーブル追加・カラム追加)を行ってみます。
具体的には、Blue/Greenデプロイを作成したAurora for postgreSQL環境に対して、Green環境にメンテナンス(テーブル追加・カラム追加)を行った後にその環境へ切り替えを行う事で、実行環境(Blue環境)への負荷やサービス中断を発生させることなくメンテを行う事ができる、というものになります。という事でやって
DynamoDBトランザクションの使い方
業務でDynamoDBを使ってきましたが、先日初めて、特定の処理を厳密に実行する必要がでてきたため初めて利用しました。
簡単に利用方法を備忘録として残します。
# DynamoDBトランザクションとは?
その名の通り、DynamoDBでトランザクション処理が実行できる機能です。
複数の更新系の処理(PUT, UPDATE, DELETE)、あるいは参照系の処理(GET)をトランザクション内で順次実行し、そのうち1つでも処理が失敗すれば全ての処理をロールバックします。
## 利用した背景
弊社で作成しているオンラインガチャサービスにて、ガチャの利用上限回数に達した場合はガチャを利用できなくする(ガチャを排出しない)必要がでてきたため、ガチャの抽選(ガチャ結果データの作成)とガチャ利用回数の記録を厳密に記録する必要があったためトランザクションを利用しました。
## 利用例
今回はNode.jsで利用したのでNode.jsでの利用例になります。
また、書き込みトランザクションのみ利用しています。
### **要件**
– あるガチャを利用した結果を`gacha_resu
会話の記憶を持つLINEチャットbotをAWS Lambda+DynamoDBで実装する【Python3】【GPT-4】
周回遅れも甚だしいネタですが、OpenAI APIを使ってチャットbotを実装しようとする時、会話の記憶を持たせたい(何もしないとステートレスな会話になる)というのはよくあるユースケースだと思います。
AWS上でLambdaとDynamoDBを使い、会話の記憶を持たせたLINEチャットボットを実装したので、自分への備忘録的に記事を残しておきます。
## 仕様
– 会話を記憶する数は5往復(10メッセージ)とするが、適宜変更もできるようにする
– 会話履歴を記憶させる媒体としてAWS DynamoDBとする
– DynamoDBへは1ユーザー1レコードとし、保存対象の会話をJSONで1フィールドにまとめて保存する### 会話履歴の保存数を5往復とした理由
会話履歴の保存数を多く(長く)すればするほど、理論的には文脈の理解度は上がるはずですが、パラメータを弄りながらテストしていると、あまり古い会話を覚えておいても文脈理解にはかえって邪魔になることが分かりました。
また、当然のことながら記憶しておく履歴が長いほどTokenの消費量も多くなるため、コスト的にも不利になります。
今回は、
Amazon EC2 Auto Scalingを整理してみた
# 背景・目的
EC2 Auto Scalingについて、過去に数回利用した程度なので体系的に整理します。# まとめ
下記の特徴があります。
|特徴|説明|
|:–|:–|
|概要|アプリケーションの負荷を処理するために適切な数のEC2インスタンスを利用できるようにする|
|Auto Scalingグループ|EC2のインスタンスの集合を作成する
下記が設定でき、これらの間でEC2が増減する
・最小
・最大
・希望するキャパシティ
EC2インスタンスの起動テンプレートを使用する|
|Auto Scalingグループの機能|・実行中のインスタンスの状態のモニタリング
・カスタムヘルスチェック
・アベイラビリティーゾーン間での容量のバランス
・複数のインスタンスタイプと購入オプション
・スポットインスタンスの自動交換
・ 負荷分散
・スケーラビリティ
・インスタンスの更新
・ライフサイクルフック
・ステートフルワークロードのサポート
※詳細は、[Amazon EC2 Auto Sca
【初参加レポート】JAWS DAYS 2024に参加して良かったこと(後押しして欲しい人向け)
# 結論
こんな人は躊躇せずにJAWS DAYSにぜひ参加しましょう!
以下の1つでも当てはまるのであれば、年齢やAWS利用実績は関係なく、JAWS DAYSに参加する価値があると思います!* 自分の周りに自分よりもAWSに対して情熱を持つ人が少なく、物足りなさを感じている人
* AWSを超えてエンジニア仲間を増やしたい人
* 当年中にAWS Summit Tokyo、re:Inforce、re:Inventに参加しようと思っている人
* 将来Community BuildersやAmbassadorsやHeroesになりたい人
* イベントやお祭りが好きな人# JAWS DAYSとは
詳しい説明は省きます。
簡単に言うと、AWS非公式(?)のユーザー
AWSにおけるストリームデータ処理サービス概要 Amazon MSK / Amazon KDS
# はじめに
この記事は、先日某LT大会に筆者が表題で登壇した際に話した内容について、補足情報などを添えてまとめるものとなります。
**LT大会登壇資料リンク**
# ストリームデータ処理のニーズの高まり
**※上記「LT大会登壇資料リンク」のスライド番号3,4参照**あらゆる物事の変化スピードが加速する世の中で、様々なソースから発生するリアルタイムに取得されたデータの件数が増加しています。
そのようなデータから意味のあるものを取り込み、必要な処理や分析を行うことで、意思決定を迅速化するニーズが高まっています。それを実現する一つの手段が、ストリームデータ処理です。
**参考:なぜ今データ処理の「リアルタイム性」が求められているのか?**
https://www.fujitsu.com/downloads/blog/jp/journal/2018-06-19-01.pdf# AWSにおけるストリームデータ処理サービス(+キューサービスとの
AWS Lambdaで翻訳APIをつくってみた
# TL,DR
Lambda関数からGoogle Cloud Translation APIをコールして、単語を翻訳するAPIを作りました。
Pythonコードです。
Lambda関数はChaliceを使うことで、簡単にAWSにデプロイすることができます。# 出来ること
こんな感じで、エンドポイントのクエリパラメータに翻訳対象のテキストと翻訳先言語を指定すると
“`
https://xxxxxx.amazonaws.com/api/?word=Hello+World!&target_language=fr
“`翻訳結果が返ってきます。
![image.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/2526943/2defd514-566c-4787-5900-f241101a1cec.png)# 作り方
## GCPの準備
1. プロジェクトの登録
1. APIの有効化
1. サービスアカウントの作成、キーのダウンロードー>JSONファイル## ChaliceでAPI化
CodePipelineの最後にCloudFrontのキャッシュを自動で削除する
# これは何?
S3の静的サイトホスティングとCodePipelineを組み合わせてWebサイトを公開しているのですが、今まではCloudFrontのキャッシュ削除を手動で実施していました。今回、そのキャッシュ削除を自動化したのでその際に実施したことをまとめた記事です。
# 構成
以下の構成でWebサイトを公開しています。
![20240317_165731.jpg](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/601535/2718f394-2ef8-5f42-4cad-2a0535ab7ab4.jpeg)– S3の静的サイトホスティングを利用
– CMSは導入しておらず、ソースコードはCodeCommitで管理
– CodeCommitでブランチをマージするとパイプライン処理が起動し、S3へのデプロイが実行される
– S3へのデプロイ完了後、LambdaがCloudFrontのキャッシュを削除しに行く
– ↑赤枠の部分であり、今回の実装内容です
– パイプライン処理の開始/終了時にはAWS
CloudTrailの操作履歴ログをAthenaで分析する手順
# この記事について
CloudTrailにはAWSアカウントに対する操作履歴をログとして取得する機能があります。
AWSアカウントが外部から不正アクセスを受けた際に、このログを確認することで不正アクセスの詳細について把握することができます。CloudTrailだけでも操作履歴の閲覧はできますが、Athenaを利用すると自由に閲覧することができます。
この記事ではAthenaを利用してCloudTrailの操作履歴ログを分析する手順について記載します。
# CloudTrailについてのおさらい
まずClouTrailについておさらいです。
## デフォルトで取得される操作履歴 (= イベント履歴)
AWS(アカウント)において、CloudTrailはデフォルトで有効になっています。
ただしデフォルトでは以下の制限があります。– 保存期間は90日間
– 記録対象は[管理イベント](https://docs.aws.amazon.com/ja_jp/awscloudtrail/latest/userguide/logging-management-events-wit