AWS関連のことを調べてみた

AWS関連のことを調べてみた
目次

【AWS】API Gatewayを使用してLambda関数のREST APIを作成するチュートリアル試してみた

## 初めに
最近マイクロサービスアーキテクチャでのアプリ開発(1)に興味があり、手始めとしてAmazon API Gatewayを使用したREST APIを作成する方法について試してみたので、その作成手順を説明します。

### Amazon API Gatewayとは
Amazon API Gatewayは、AWSが提供するフルマネージドサービスで、REST、HTTP、WebSocket APIの作成をすることができます。これにより、開発者はAWSのリソースや他のウェブサービスへのアクセスを提供するAPIを容易に作成でき、これらのAPIを自身のアプリケーションやサードパーティの開発者に提供することが可能になります(2)

### API作成手順について
この記事では、AWSが提供する「チュートリアル: Lambda プロキシ統合を使用して REST API を作成する(3)」手順について、実際に試してみたので作業手順を掲載します。手順に従うことで、初心者の方でも簡単にREST API作成を体験できるようになっていま

元記事を表示

3分でできるAWS Stepfunction構築(超簡易var)

## 概要
注文の受付から処理までの簡単なワークフローをAWS Step Functionsで作成します。実際にコードをコピーして簡単に手を動かしてこんな感じなんだ!というイメージを掴んでもらえるようにしました。中身は非常に薄いですし、この記事の内容は実務レベルではありません。

## 構築内容
Lambdaを使った注文の受付から処理までのワークフロー

## 前提条件
– AWSアカウントを持っていること
– AWSマネジメントコンソールにアクセスできること

## 対象者
– 初めてStepfunctionを触る人

## ワークフローの流れ

1. 注文受付
2. 在庫確認
– 在庫あり → 支払い処理へ
– 在庫なし → 注文キャンセルへ
3. 支払い処理
– 成功 → 注文完了へ
– 失敗 → 注文キャンセルへ
4. 注文完了 or 注文キャンセル
## 手順
### Step1. Lambda関数の作成

AWSマネジメントコンソールから
起動経路 :「Lambda」>「関数の作成」>「一から作成」を選択し、以下の設定で3つの関数を作成
#### a

元記事を表示

MLflow LLM Evaluate で Claude 3.5 Sonnet、GPT-4o、Gemini 1.5 Pro との QA を評価する

# はじめに

株式会社NTTデータ [デジタルサクセスソリューション事業部](https://enterprise-aiiot.nttdata.com/) で Databricks を推進している [nttd-saitouyun](https://qiita.com/nttd-saitouyun) です。

以下の記事で、Databricks から **Amazon Bedrock の Claude 3.5 Sonnet**、**Azure OpenAI の GPT-4o**、**Google Cloud Vertex AI の Gemini 1.5 Pro** を利用できるように設定してきました。

– [Databricks の Mosaic AI Model Serving Endpoint から Amazon Bedrock の LLM を利用する](https://qiita.com/nttd-saitouyun/items/4fc9bde0b338cb180e02)
– [Databricks の Mosaic AI Model Serving Endpoint から

元記事を表示

Systems Managerをざっくりまとめてみた

# はじめに
SystemsManager(以下、SSM)は、色々と機能があり全体感を掴めていなかったので簡単にまとめてみました。随時アップデート出来たらと思います。

# Systems Manager
![image.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/223559/7ff11206-e5c2-25cb-0521-c856d90136f0.png)

– SSMとは?
– ハイブリッドクラウド環境のための安全なエンドツーエンドの管理ソリューション
– SSMを使ってサーバ管理を行うには、サーバをマネージドノードにする
– マネージドノードにするためには?
– 1. SSM Agent導入
– SSM Agentがポーリング(SSM Agent→ SSM API)
– 2. アウトバウンド経路確保
– インターネット経由

元記事を表示

AWS Backupからの復元時にEC2に任意のプライベートIPアドレスを割り当てる方法

# はじめに
前回の記事で、`AMI`からの復元時に任意のプライベートIPアドレスを指定する方法を紹介しましたが、今回は`AWS Backup`で取得しているバックアップから復元する際に任意のプライベートIPアドレスを割り当てる方法も紹介したいと思います。

なお、今回は趣旨が異なるため、`AWS Backup`自体の説明や設定方法は解説せず、`AWS Backup`の運用が既に行われている前提で進めます。

– 【前】[EC2のプライベートIPアドレスを任意で割り当てる方法とサブネットCIDR予約](https://qiita.com/sakai00kou/items/83b08529e6b07cb06598)

## AWS Backupからの復元について
`AWS Backup`は設定することでEC2やEFS、RDS等のバックアップを定期的に行ってくれるサービスとなりますが、`AWS Backup`で取得したEC2のバックアップから復元する場合、`AMI`から再作成する場合と異なり、以下のように簡易的なネットワーク設定しかできないようになっております。

![Monosnap_2

元記事を表示

Amazon S3 conditional writesを試してみた

# 背景・目的
最近、下記のリリースが発表されたので、条件付き書き込みを簡単に試してみました。

https://aws.amazon.com/about-aws/whats-new/2024/08/amazon-s3-conditional-writes/

# まとめ
下記に特徴をまとめます

| 特徴| 説明
|:–|:–|
|概要|・Condition requestを行うとS3オペレーションに前提条件を追加できる
・Read、Writeリクエストにヘッダーを追加し、条件が満たされない場合、失敗する
|料金|条件付きリクエストには、追加料金はかからない
・失敗したリクエストを含めて該当するリクエストに対して既存の料金がかかる|
|条件付き読み込み|条件付き読み取りを使用すると、 読み取りリクエストに追加のヘッダーを使用して、S3オペレーションに前提条件を追加できる。
前提条件に合わないしない場合は、失敗する|
|条件付き読み取りが使用できるAPI|・GetObject
・HeadObject
・CopyObject|
|GetObjectで使

元記事を表示

「Boosting MySQL database performance with Amazon ElastiCache for Redis」をAWS CLIでやってみる

https://aws.amazon.com/jp/getting-started/hands-on/boosting-mysql-database-performance-with-amazon-elasticache-for-redis/

上記、「ABoosting MySQL database performance with Amazon ElastiCache for Redis」 をAWS CLIでやってみる
![image.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/3297641/5998e860-8ee6-6548-fb79-36abd0aced18.png)
ハンズオンから引用

:::note warn
**CloudShellから実施**
CloudShellはタブを2つ使用
タブ1:AWS構築用
タブ2:EC2操作用 (Session Manager接続)
:::
# 事前作業
## VPC作成 (タブ1)
:::note info
ハンズオン用のVP

元記事を表示

AWS Lightsail のWordpress で使っているLet’s Encryptの証明書を更新する

WordPress を手軽に使うために、AWSのLightsailを使っています。以前の記事([Wordpressで作ったホームページを安全に公開する方法](https://qiita.com/sawabenaota/items/6ad1da5af6caf91560c4))にも書いた通り、Wordpress は静的コンテンツを生成する際だけ使っていて、日頃は停止状態にしていました。

# 証明書の有効期限が近づいている旨のメールが届く
あるとき、expiry@letsencrypt.org から「あと19日で証明書が失効する」旨のメールが届きました。なんとなく自動更新されると思い込んでいましたが、サーバが立ち上がっていなければ自動更新のしようもないことに気づき、手動での更新作業を始めました。

# Lightsailの設定状況によって更新手段は様々
Lightsail固有の更新方法がありそうだと思って検索してみたところ、AWSのサポートサイトに手順が書かれていました。今回はここに書かれた手順で完了できました。

[Lightsail インスタンスでホストされている Bitnami スタ

元記事を表示

S3へのアップロード、Object上書き防止の仕組み作りが簡単になった(conditional writesの話)

# 概要
8月20日に、以下のタイトルでAWSから発表がありました。
**Amazon S3 now supports conditional writes**

https://aws.amazon.com/jp/about-aws/whats-new/2024/08/amazon-s3-conditional-writes/?utm_source=tldrdevops

今回の機能ですが、
オブジェクト作成前に同一オブジェクトの存在を確認し、存在する場合にはアップロードをさせないためのパラメータを、APIリクエストで設定できるようになった、という話です。

つまり、**オブジェクトの上書き防止の仕組みをこちらで用意しなくてよい**ということです!

**これまで**
1. `XXXX`というオブジェクトの存在確認のためのAPIリクエストを実行
2. 存在判定を実施
3. 存在しなければ書き込みAPI実行

**今後**
1. 書き込みAPI実行時のパラメータ追加のみ

### 対象となるAPI(2つ)
– PutObject(今回はこっちで動作確認を進めます)
– Complete

元記事を表示

Mosaic AI Playground で Claude 3.5 Sonnet、GPT-4o、Gemini 1.5 Pro と同時にチャットする

# はじめに

株式会社NTTデータ [デジタルサクセスソリューション事業部](https://enterprise-aiiot.nttdata.com/) の [nttd-saitouyun](https://qiita.com/nttd-saitouyun) です。

これまで以下の記事で、Databricks から **Amazon Bedrock の Claude 3.5 Sonnet**、**Azure OpenAI の GPT-4o**、**Google Cloud Vertex AI の Gemini 1.5 Pro** を利用できるように設定してきました。

– [Databricks の Mosaic AI Model Serving Endpoint から Amazon Bedrock の LLM を利用する](https://qiita.com/nttd-saitouyun/items/4fc9bde0b338cb180e02)
– [Databricks の Mosaic AI Model Serving Endpoint から Azure OpenAI の

元記事を表示

CLFクラウドのコンセプトについて(まとめ)

## はじめに
以前投稿したCLFの出題範囲、クラウドのコンセプトについてのまとめです。

## 分野
クラウドのコンセプトには4つの分野があります。

1. AWSクラウドの利点を定義する
1. AWSクラウドの設計原則を特定する
1. AWSクラウドへの移行の利点と戦略を理解する
1. クラウドエコノミクスのコンセプトを理解する

各項目の重要ポイントをまとめていきます。
### AWSクラウドの利点を定義する
>**対象知識**
>- AWSクラウドの価値提案
>
>**対象スキル**
>- 規模の経済についての理解(コスト削減など)
>- グローバルインフラストラクチャの利点の理解
(デプロイのスピード、グローバルリーチなど)
>- 高可用性、伸縮性、俊敏性の利点の理解

分野名のとおり、
**AWSクラウドを使うことによって得られるメリットが何かを理解する**
が、この分野で求められる知識です。

各項目を簡単に説明

– 規模の経済についての理解(コスト削減など)
– サービスの提供規模を拡大して顧客を集め、
技術投資をしてもらった分を値下げ等で還元する仕組み。

元記事を表示

全てのS3バケットのアクセス設定を確認する方法

# 概要
複数のS3バケットがどのようなアクセス設定になっているか確認する為の`Shell Script`を作成しました。備忘録も兼ねて、そのコードと出力方法を記載します。

# 手順
1. どのディレクトリでも良いので`sh`のファイルを作成する
“`sh
touch check_s3_access_settings.sh
“`

2. 下記のコードを`check_s3_access_settings.sh`に記載する
“`check_s3_access_settings.sh
#!/bin/bash

# 出力ファイル名
output_file=”check_s3_access_settings.csv”

# CSVファイルのヘッダーを作成
echo “Bucket Name,Policy Status,ACL Status” > $output_file

# 全てのバケットのリスト一覧を取得
buckets=$(aws s3api list-buckets –query “Buckets[].Name” –output text)

for bucket in $b

元記事を表示

【開催期間訂正】ANGEL Calendarを開催します!

# はじめに
この度、ANGEL Calendarの企画に参加しております!
記事一覧は下記のOrganizationアカウントの一覧をチェックしてみてください!
[2024-ANGEL-Dojo Organization](https://qiita.com/organizations/2024-angel-dojo)

# ANGEL Calendar運営からのお知らせ
こんちには!ANGEL Calendar企画運営メンバーのはらしまです!
[前回の記事](https://qiita.com/har1101/items/637ba82948aa7670fb9f)でふくちさんから下記の記事で紹介いただいたANGEL Calendarですが、開催期間が変更となりましたので訂正させていただきます。

:::note info
**【修正前】08/20(火)~09/20(金)**
**【修正後】09/01(火)~09/30(月)**
:::

# 注目ポイント
せっかくなので簡単にANGEL Calendarの魅力を2つお伝えします!!

### 様々な企業の方が参加!
今回の企画では、

元記事を表示

GPT-4oファインチューニングモデルの追加:最新情報と成功事例の紹介

## 1. はじめに
皆さんおはようございます♪

詳しくは [https://note.com/kii_genai/n/nf5767cd49c1e](https://note.com/kii_genai/n/nf5767cd49c1e)もご覧くださいね♪

2024年8月に新たに登場したGPT-4oファインチューニングモデルは、OpenAIの技術にさらなる柔軟性と適応力を提供しています。これにより、ユーザーは自身の特定のニーズに合わせたモデルを簡単にカスタマイズでき、ドメイン特化型のAIシステムを構築することが可能になりました。特に、GPT-4oは、従来のファインチューニングに比べて高い精度を誇り、開発者にとっては特定のユースケースに最適化されたモデルを迅速に作成できるツールとなっています。

本記事では、GPT-4oのファインチューニングモデルに関する最新情報を深く掘り下げ、その特徴、料金体系、成功事例、ファインチューニングの具体的な手順などを詳しく解説します。

次の章では、まずGPT-4oのファインチューニングモデルが持つ具体的な特徴について詳しく見ていきます。

## 2.

元記事を表示

streamlitのLLMアプリをEC2+ALB+Route53で公開する方法

ChatGPTやClaudeのWebサイトは[React](https://ja.react.dev/)で作られているが、そこまでしたくなくサクッと作って、サクッと公開したいとき、[streamlit](https://streamlit.io/)は非常に楽。
ただ、streamlitは静的ビルドができず、S3+CloudFrontでは公開できない。今回は、プライベートVPC内のEC2+ALBで公開する方法を紹介する。
※パブリックVPC内であれば、EC2+Elastic IPだけでも公開できます。

## Streamlitの簡易LLMアプリケーション作成

streamlitのインストール
“`
pip3 install streamlit
“`

下記にAmazon BedrockのClaude3のWebアプリを立ち上げるstreamlitのプログラムを載せる。

:::note warn
BedrockのClaudeを使用するには、Bedrockのコンソール画面->モデルアクセスからモデルアクセスをリクエストする必要がある。
:::

:::note warn
下記コマ

元記事を表示

【備忘】Codepipelineについて調べてみた

# はじめに

業務の中で CodePipeline に触れる機会ができたので**活動記録** 兼 **備忘**として記事を残すことにしました。

# 前提
AWSについての私の知識量は、Cloud Practitioner 合格に向けて勉強中!のレベルです。
業務で AWS には触れますが仕組みや各サービスの内容について詳しく理解できていません。

https://aws.amazon.com/jp/certification/certified-cloud-practitioner/

# CodePipelineってなに

前提にもあるとおり私は AWS の各サービスの内容について理解が浅いです。
Codepipeline と聞いた時に「なにそれ?」となったので調べて自分なりに解釈しました。

https://docs.aws.amazon.com/codepipeline/latest/userguide/welcome.html

AWS CodePipeline は、コードの作成からデプロイまでのプロセスを自動化し、短時間で確実に、そして効率的にソフトウェアをリリースでき

元記事を表示

【アップデート】AWS Backup は、EC2 上の SAP HANA のクロスリージョンおよびクロスアカウント バックアップをサポートしました

こんばんは、Koderaです。
AWS BackupがEC2 上の SAP HANA のクロスリージョンおよびクロスアカウント バックアップをサポートしました。
https://aws.amazon.com/about-aws/whats-new/2024/08/aws-backup-cross-region-cross-account-copy-sap-hana-ec2/

## アップデート内容
AWS BackupがEC2 上の SAP HANAクロスリージョンおよびクロスアカウント バックアップをサポートしました。
ドキュメントヒストリーも20日日付で更新されていますね。

![image.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/3858908/d7930557-27b2-5784-674c-0855b4f06727.png)

Organizations内でリージョンを超えたコピーおよびAWSアカウントを越えてスナップショット バックアップをコピーできるようになりました。

##

元記事を表示

【アップデート】新しいDirect Connectロケーションがクアラルンプールに開設されました

こんばんは。Koderaです。
新しいDirect Connectロケーションがクアラルンプールに開設されました。
https://aws.amazon.com/about-aws/whats-new/2024/08/aws-direct-connect-location-expansion-malaysia/

## Direct Connect ロケーションとは
Direct Connectは、AWSとユーザーとの間に専用のネットワークを提供するサービスのことです。オフィスやシステムが稼働するデータセンターからインターネットを介さずにAWSと接続することができます。インターネット経由ではないので、セキュアかつ回線状況の影響を受けずに、安定した通信ができます。

AWS Direct Connect ロケーションとは、対応するリージョンでの AWS へのアクセスの中継地となるものです。 パブリックリージョン または AWS GovCloud (US) の単一の接続を使用して、他のすべてのパブリックリージョンのパブリック AWS のサービスにアクセスすることができます。

## アッ

元記事を表示

AWS RDSの(クラスタ)パラメータグループの差分移行

# 最初に謝辞

この記事の内容は[サーバーワークスさんの記事](https://blog.serverworks.co.jp/aws-cli/parameter-group-migration)と同等です。
アレンジした部分はありますが、やってることの本質はまるで変わってないです。
動作原理とかの細かい説明はそちらをご覧ください。

> どなたかのお役に立てれば幸いです。

お役に立ちまくりましたありがとうございます。

# デフォルトDBパラメータグループ
元記事では仮のDBグループを作ってから表示させていましたが、DBエンジン名の前に `default.` を付ければ使用したことがなくても表示させることができます。

DBエンジン名の一覧を出してー

“`bash
aws rds describe-db-engine-versions \
–query “DBEngineVersions[].DBParameterGroupFamily” \
–output text | uniq
“`

DBエンジン名の前に `default.` を付けて中身の表示

“`bash

元記事を表示

RDS Blue/Green Deploymentを徹底的に研究

# 1. そもそもBlue/Green Deploymentとは
`Blue/Green Deployment`は新しい概念でも Aurora 専用の手法でもありません
これは、アプリケーションの新バージョンをリリースする際に広く使用される一般的なデプロイメント戦略です。
最近はインフラエンジニアにとってはもはや当たり前になってきました。

**アプリケーションレイヤーでのBlue/Green Deploymentに関する特徴**
– 2つの同様の環境を用意
– Blue環境: 現行の本番環境
– Green環境: 新バージョンをデプロイする環境
– Green環境に新バージョンをデプロイし、テストを実施
– デフォルトはトラフィックが直ちに徐々にBlueからGreenに切り替える設定ですが、待機時間(待機期間でテストを実施)を設定することも可能
– トラフィックを徐々にBlueからGreenに切り替え 
– 問

元記事を表示

OTHERカテゴリの最新記事