- 1. Amazon Location Serviceについて試してみた
- 2. AWS環境構築時のハマりポイント備忘録①
- 3. 【AWS】S3バケットの削除手順
- 4. 【AWS】ディストリビューションの削除手順
- 5. Agent Blueprints for Amazon Bedrockを試す(新サービスじゃなくて、CDKコンストラクタだよ)
- 6. AWS Amplify 入門:機能解説、メリットと注意点
- 7. データをビジネスに活用するワークロード
- 8. 【AWS RDS】インターネットから接続できるデータベースの作成手順
- 9. Live2DモデルをAWSのS3にデプロイ
- 10. 【AWSコンテナ入門】簡単なPythonアプリをECSにデプロイしてみよう!
- 11. Elastic Load Balancing違いまとめ
- 12. エンジニアが初めてAWSサミット(2024)に現地参加してみた
- 13. AWS Certified Data Engineer – Associate(DEA-C01)を取得しました
- 14. AWSデータレイク入門:クラウド時代のデータ分析基盤
- 15. CLFクラウドのコンセプトについて(その3)
- 16. 【アップデート】Amazon QuickSight にNested Filter (ネストされたフィルター)という新しいフィルタータイプが追加されました
- 17. リランキングのありがたみが分かるCohereの解説ノートブックをやってみた
- 18. CloudFormationでECSクラスターとCodePipelineを設定する
- 19. lamda関数を新規作成した メモ
- 20. CloudwatchLogs を Kinesis Firehose 経由で S3 に保存する for CDK
Amazon Location Serviceについて試してみた
# 背景・目的
AWSに、位置情報、マップのサービスとしてLocation Serviceというサービスがあります。
こちらについて概要を整理し、簡単に試してみます。# まとめ
下記に特徴を整理します。
|特徴|説明|
|:–|:–|
|Amazon Location Service |・位置データと機能をアプリケーションに追加できる
・グローバルプロバイダーからの高品質なデータを使用してLBS(ロケーションベースのサービス)を提供している
・手頃な価格のデータ、tracking、geofences、ヘルスモニタリング用の組み込みメトリクスにより、位置情報に対応した高度なアプリケーションを構築可能|
|匿名性|顧客メタデータとアカウント情報を削除し、データプロバイダーに送信されるすべてのクエリを匿名化できる|
|機密性|施設、アセット、人員の所在地など、トラッキング、geofencesに関する機密性が、高い位置情報がAWSアカウントからできることは一切ない|
|データの所有|Amazonや第三者は顧客のデータを販売したり、広告に使用したりする権利
AWS環境構築時のハマりポイント備忘録①
本記事は私がAWS環境構築をするなかでうっかり忘れてハマってしまうポイントを今後のためにまとめたものです。
## 1. DBを作成する前にサブネットグループを作成すること
サブネットグループは複数のサブネットにまたがるグループであり、サブネットを作成後に別途作成が必要。例)プライベートサブネット(az-a)と(az-d)があるとした場合、それらをサブネットグループとして事前に作成した上でRDSに紐づける必要がある。
:::note warn
RDS作成時に紐づけるサブネットもしくはサブネットグループを紐づける必要があり、RDS作成後はその設定を変更することができない。
変更したい場合はRDSの再作成が必要(時間がかかる)
:::## 2.VCP内にLambdaを配置しRDSと内部通信する場合
AWSはLambdaをVPC外に配置することを推奨しているが、LambdaとRDSを内部通信させたい場合はVPC内にLambdaを配置する必要性が出てくる。
サブネットのプライベートIPアドレスを浪費するため、他のAWSリソースに影響が出ないようLambda専用のサブネットを用意するこ
【AWS】S3バケットの削除手順
## S3バケットの削除
1). S3を開き作成したバケットを選択し「空にする」を押します。
![1.JPG](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/3817084/62660d79-796a-3ecb-ef36-58b143cb5ddc.jpeg)2). バケット~削除しますか?に「完全に削除」と入力し、「空にする」を押します。
![2.JPG](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/3817084/5542b3e6-9aa1-b8c5-305e-71aa5db9f0c8.jpeg)3). もう一度バケットを選択し、「削除」を押します。
バケット~削除しますか?にバケット名を入力し、「バケットを削除」を押します。
![4.JPG](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/3817084/2fd161fa-680a-662b-1400-
【AWS】ディストリビューションの削除手順
## ディストリビューションの削除
1). CloudFrontを開いて作成したディストリビューションを選択し、「無効」を押します。
![1.JPG](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/3817084/a198d892-d868-6eb5-53ad-314be92c90cc.jpeg)2). 「無効」を押します。
![2.JPG](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/3817084/88ffee66-9621-cf70-35d5-da1ad641c6ac.jpeg)3). 最終変更日が「デプロイ」から具体的な日時に更新されるまで待ちます。数分かかる場合があります。
![3.JPG](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/3817084/142f521e-e55b-8c29-4f7d-103596dfc264.jpeg)
日時が更
Agent Blueprints for Amazon Bedrockを試す(新サービスじゃなくて、CDKコンストラクタだよ)
休暇で十分ナマッているところに、熱めなニュースが飛び込んできました!
それはこいつ
**Agent Blueprints for Amazon Bedrock**
—
ブログの発表
https://aws.amazon.com/jp/about-aws/whats-new/2024/08/blueprints-agent-based-automation-amazon-bedrock/
公式ドキュメントにはまだ言及がありませんでしたが、探したら出てきました。
ドキュメント
https://awslabs.github.io/agents-for-amazon-bedrock-blueprints/
GitHubリポジトリ
https://github.com/awslabs/agents-for-amazon-bedrock-blueprints
サンプルプロジェクトのGitHubリポジトリ
https://github.com/aws-samples/amazon-bedrock-samples/tree/main/agents-for-bedrock/a
AWS Amplify 入門:機能解説、メリットと注意点
# はじめに
Nuxt.jsを容易にデプロイしてインフラ運用の負荷を削減したいので、AWS Amplifyを導入することが決まりました。
Amplifyは、GitHubと連携でき、pushするたびに自動でデプロイしてくれるため、非常に便利です。
ただ、インフラ運用の負荷がないとはいっても、どのような仕組みなのかを理解する必要があるため、調査しました。# Amplify 日本ユーザーグループ / 導入事例
Amplifyに関するサイトがまとまってるため、とても参考になります。https://aws-amplify-jp.github.io/resources/
導入事例も参考になるかもしれないです。
https://aws.amazon.com/jp/solutions/case-studies/?customer-references-cards.sort-by=item.additionalFields.sortDate&customer-references-cards.sort-order=desc&awsf.customer-references-location=
データをビジネスに活用するワークロード
## はじめに
最近は、迅速かつ的確な意思決定を行うために、データをビジネスに活用する動きが高まっています。従来のKKD(勘・経験・度胸)に頼るのではなく、実際のデータに基づいた判断が求められています。データを収集・蓄積するだけでなく、質の高いインサイトを得て次のアクションに繋げることが重要です。そこで、今回は、データ活用のワークロードについて、整理してみました。## データ活用のワークロード
データ活用には大まかに分けて、2つのパターンがあります1. **人がデータを分析してアクションにつなげる**
2. **システム側でデータの集計・分析結果を連携してアクションにつなげる**### 1. 人がデータを分析してアクションにつなげる
**インタラクティブ分析**
データを試行錯誤しながら分析し、インサイトを得る。ユーザーがさまざまな条件でデータレイクやデータウェアハウスからデータを取り出して結果を確認し、インサイトが得られるまで試行錯誤を繰り返します。大容量のデータから素早く集計結果を確認できる対話型のツールが求められます。また、データの羅列を眺めるだけでなく、グラフやパイ
【AWS RDS】インターネットから接続できるデータベースの作成手順
# 1. 概要
この記事では、 RDS(AWS)で外部から接続可能なデータベースを作成する手順を記載しています。# 2. 目次
1. 概要
1. 目次
1. 手順
1. マネジメントコンソールをひらく
1. RDSサービスをひらく
1. データベース一覧をひらく
1. データベース作成をひらく
1. データベースを作成する
1. データベースのエンドポイントを確認する
1. MySQLクライアントをつかって、データベースにログインする
1. 参考資料# 3. 手順
### 3.1 マネジメントコンソールをひらく
※事前にAWSアカウントの作成が必要です。参考:[AWS アカウント作成の流れ](https://aws.amazon.com/jp/r
Live2DモデルをAWSのS3にデプロイ
# Live2D モデルをブラウザでどこからでも見られるようにしたい!
## 目次
– [はじめに](#はじめに)
– [前提条件](#前提条件)
– [手順概要](#手順概要)
– [1. Live2D SDK for Web をダウンロード](#1-live2d-sdk-for-web-をダウンロード)
– [2. サンプルモデルを組み込んでビルド](#2-サンプルモデルを組み込んでビルド)
– [3. AWS S3 バケットを作成](#3-aws-s3-バケットを作成)
– [4. ビルド生成物を S3 にアップロード](#4-ビルド生成物を-s3-にアップロード)
– [さいごに](#さいごに)## はじめに
どうも、駆け出しのぴよぴよエンジニアです。
本記事では、Live2D SDK for Web を使用して、作成した Live2D モデルを、AWS の S3 にデプロイしてブラウザで表示させる手順について説明します。将来的にはコミケで売り子アプリのようなものを作
【AWSコンテナ入門】簡単なPythonアプリをECSにデプロイしてみよう!
# この記事は何?
最近、生成AIブームで「Pythonの簡単なチャットアプリを作ってみる」機会が増えたのではないでしょうか。
特に、Streamlitという便利なライブラリを使えば、Reactなどが書けなくても簡単にフロントエンドをPythonで作ることができます。
![image.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/1633856/1591935b-3b57-33ce-4128-43cea0c0d477.png)
開発端末のローカルやCloud9などでこれを動かすのは簡単なのですが、いざ他の人にも使ってもらおうとするとクラウド上にデプロイする必要があります。
しかし、**アプリをコンテナに固めてAWSにデプロイ!** といった王道の作業をGUIで分かりやすく解説する記事が意外と少なかったので、初心者向けハンズオンとしてまとめてみます。
# ハンズオンの概要
### 作成するアーキテクチャ
![スクリーン ショット 2024-08-16 に 20.11.28 午後.png]
Elastic Load Balancing違いまとめ
# 全体
– リージョン間の負荷分散は不可
– スティッキーセッション(維持設定):一定のインスタンスの通信を維持
– EC2インスタンスを削除すると、エラーになるので、それを回避したい場合は無効にする
– 登録解除の遅延(接続のドレイン)
– デフォルト有効(300s)
– EC2インスタンスが異常になった場合でも指定時間既存の接続を開いたままにする
– 無効にすれば登録解除中や異常になったインスタンスへの接続をすぐ閉じる
– ヘルスチェック
– 全てのインスタンスが正常に動作しているか定期的にチェック
– 正常 = InService
– 異常 = OutOfService → ルーティングを停止、正常になると自動的に再開(修復はしない)## 各ELBの違い
||ALB|NLB|GLB|
|—|—|—|—|
|名称|Application Load Balancer|Network Load Balancer|Gateway Load Balancer|
|ユースケース|HTTP リクエス
エンジニアが初めてAWSサミット(2024)に現地参加してみた
みなさん、はじめまして。
株式会社rexcornuで情報システムを管理しているHataです。
今回AWS Summit Japan 2024に初の現地参加をしてきましたので、オンラインでは味わえない現地での感動や気づきを共有したいと思います。
まだ現地参加をしたことがない方に、この記事が参考になれば幸いです。# はじめに:今回参加したAWS Summitとは
AWS Summit JapanはAWS主催のAWSを学ぶ日本最大のイベントで、毎年開催されているようです。
参加費用は無料で、AWSに興味があれば誰でも参加可能です。
私は6/21(金)の2日目のみ参加しました。以下公式サイトより引用。
https://aws.amazon.com/jp/summits/japan/
> AWS Summit は、クラウドコンピューティングコミュニティが一堂に会して、アマゾン ウェブ サービス (AWS) に関して学習し、ベストプラクティスの共有や情報交換ができる、全てのクラウドでイノベーションを起こすことに興味がある皆様のためのイベントです。
>
> 開催日時:
> 2024
AWS Certified Data Engineer – Associate(DEA-C01)を取得しました
# はじめに
AWS認定コンプリートを目指すべく、DEA-C01を取得しました。# AWS Certified Data Engineer – Associate(DEA-C01) とは
[この辺](https://aws.amazon.com/jp/certification/certified-data-engineer-associate/)を参照ください。# 教材
1. [Cloud License](https://cloud-license.com/exam/dea/)
– 有償のおなじみのやつです。
– 77問(11セクションx7問)です。
– これだけで良いかもしれません。
1. [Exam Prep Official Practice Question Set: AWS Certified Data Engineer – Associate (DEA-C01 – Japanese)](https://explore.skillbuilder.aws/learn/course/internal/view/elearning/18145/e
AWSデータレイク入門:クラウド時代のデータ分析基盤
## 目次
1. 概要
2. データ基盤とは?
3. データレイクとは?
4. データレイクの全体像と関連するAWSサービス
5. AWSを使用した構築事例(※一例)
6. 最後に -Udemy入門コース紹介-## 概要
この記事では、データレイクの基本概念と、データ基盤としての重要性について解説します。データ基盤がなぜ必要なのか、どのような背景からその必要性が生じたのかを簡潔に説明し、分析の基盤としての役割を理解します。
また、データレイクとはどういったものなのか、データウェアハウスとどう異なるのかや
データレイクの基本的な構造と、それに関連するAWSサービスの概要を把握します。## データ基盤とは?
近年、デジタル化が進む中で、データを活用することが非常に重要視されています。
その一例として、データに基づいた意思決定が挙げられます。
こうした**データ活用を支えるのが**「**データ基盤**」です。データ基盤とは、**データを継続的に収集し、蓄積し、活用するためのシステム**です。
たとえば、データ分析者は一時的に社内外からデータを集め、分析や効果検証を行うこと
CLFクラウドのコンセプトについて(その3)
# はじめに
AWS認定であるクラウドプラクティショナー(CLF)の出題範囲である、
クラウドのコンセプトについて学ぶ。## クラウドの分野について
* ①AWS クラウドの利点を定義する。
* ②AWS クラウドの設計原則を特定する。
* ③AWS クラウドへの移行の利点と戦略を理解する。
* ④クラウドエコノミクスのコンセプトを理解する。以上4項目がAWSの提示しているクラウドのコンセプトです。
今回はこの中から**③AWSクラウドへの移行の利点と戦略を理解する**を簡潔に解説します。## AWSクラウドへの移行の利点と戦略を理解する。
こちらの項目では
– ①AWS導入戦略
– ②クラウド移行ジャーニーをサポートするリソース
の二つが対象知識となっています。
対象スキルは以下の2つです。– ①AWSクラウド導入フレームワーク(AWS CAF)の利点の理解(ビジネスリスクの軽減、
環境・社会・ガバナンス(ESG)パフォーマンスの向上、収益の増大、
運用効率の向上など)
– ②適切な移行戦略の特定(データベースのレプリケーション、
【アップデート】Amazon QuickSight にNested Filter (ネストされたフィルター)という新しいフィルタータイプが追加されました
こんにちは。koderaです。
先日、Nested Filter (ネストされたフィルター)という新しいフィルタータイプが追加されました。
https://aws.amazon.com/jp/about-aws/whats-new/2024/08/amazon-quicksight-nested-filters/## アップデート内容
Amazon QuickSight にNested Filter (ネストされたフィルター)という新しいフィルタータイプが追加されました。
ネストされたフィルターを利用することで、あるフィルタで絞り込んだ結果セットを元に別のフィルタの絞り込みを行うことができるようになりました。ネストされたフィルターは分析レベルでのみ追加できます。
ネストされたフィルターは、SQLの相関サブクエリやマーケット・バスケット分析と同様に機能します。::: note info
マーケット・バスケット分析は、スーパーマーケットなどの小売業でよく用いられています。顧客の購買履歴から商品間の関連性を分析する手法です。
顧客が同時に購入する商品の組み合わせを分析することで、ク
リランキングのありがたみが分かるCohereの解説ノートブックをやってみた
CohereのRerank 3モデルのリリースブログの一番最後に、「Searching Over Tables」という章があり、解説ノートブックのリンクがありました。
https://cohere.com/blog/rerank-3
リランキングについて理解が深まるかと思い、やってみました。
## 環境準備
:::note
埋め込みにはBedrockのTitan Text Embeddings V2を使用するように改変しています。
:::Pythonライブラリーをインストールします。
“`shell
pip install -q pandas numpy fastparquet cohere boto3
“`Pythonスクリプトを作成します。
まずは、ライブラリーをインポートします。
“`python
import jsonimport boto3
import cohere
import numpy as np
import pandas as pd
“`Cohereアクセス用のクライアントを生成します。
トライアル用のAPIキーが無料で取得で
CloudFormationでECSクラスターとCodePipelineを設定する
# 作成されるリソース
– 基本的なネットワーク
– ECSクラスター(EC2 on ECS)
– CodePipeline
– CodeCommit
– CodeBuild BuildProject
– (ECS Deploy)※CodePipelineのデプロイステージは未検証のためコメントアウト
# テンプレート
ECSクラスターの作成は以下の公式ドキュメントを参考にしています。https://docs.aws.amazon.com/ja_jp/AWSCloudFormation/latest/UserGuide/aws-resource-ecs-cluster.html
“`yaml:
AWSTemplateFormatVersion: 2010-09-09
Parameters:
VPCCidrBlock:
Description: The primary IPv4 CIDR block for the VPC.
Type: String
MinLength: ‘9’
MaxLength: ’18’
lamda関数を新規作成した メモ
lamda関数を新規作成した
前提 : vpc、elastic ipの設定は終わっている
lamda作成ユーザにIAM権限が必要(ロール割当で必要になる)1. サービスからlamdaを選択
2. 関数の作成
・ 一から作成 (あくまで自分の場合)
を選択
・ 関数名
任意でつける
・ ランタイム
nodejs20を選択
・ アーキテクチャ
x86_64 (特に何も考えず)・ デフォルトの実行ロールの変更
→ 基本的な Lambda アクセス権限で新しいロールを作成
を選択した。(使いまわしのロールなければこれで良さそう)
→ この時はS3の権限が必要だったので以下を追加“`
{
“Version”: “2012-10-17”,
“Statement”: [
{
“Sid”: “VisualEditor0”,
“Effect”: “Allow”,
“Action”: [
“s3:PutObject”,
“s
CloudwatchLogs を Kinesis Firehose 経由で S3 に保存する for CDK
# 構成図
![CloudWatchLogsToFirefoseToS3.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/280929/67538867-2f75-80c6-3b78-342520a148a4.png)
# やりたいこと
今回検証用のため、EC2 に Apache を起動し、
access_log を S3 bucket-A に格納し、
error_log を S3 bucket-B に格納
できるようする。なお、S3 に格納するとき、CloudWatchLogs を S3 のプレフィックスにして保存する。
以降の説明では、A は access_log、B は error_log とする。
IAM ロールは CloudWatchLogs ごと、Firefose ごとに作成されるとリソース数が増えるため、今回は A と B それぞれ共通のものを利用する。
# CDK 構造図
“`:tree
bin
└── CloudwatchLogsToFirehoseToS3