- 1. 固定IPを持たないAWS EC2へ毎回同じコマンドでsshする
- 2. AWS CodePipeline で始めるデプロイオートメーションの話
- 3. 簡易的な社内向けAtlassian製品のクラウドサービスを構築してみた話
- 4. 増殖Lightsailで動画納品のデータ転送費を無料にする話
- 5. mockmockでAmazon Kinesis Data Streamsにデータを送るプロジェクトを作成する
- 6. AWS CDKとGithub ActionsでIAMユーザーを管理してみた【CI/CD】
- 7. 初学者がDocker on Railsで開発したアプリをAWS EC2にデプロイする際につまづいたこと
- 8. Amazon Kinesis + WebRTC
- 9. Transit Gateway Multicast を使って、EC2で Multicast を試してみる
- 10. ParquetにしたOSMのデータをEMRでいじってみる
- 11. terraformでさくっとiamユーザーとグループを作ってみる
- 12. 見せて貰おうか、Amazon新サービス「CodeGuru Reviewer」の性能とやらを
- 13. 【Python用】AWS Lambda Layerへのアップロードファイルをササッと作る
- 14. AWS EC2になぜかS3のマウントができない(/xxx/xxx にアクセスできません)
- 15. AWS で ARMのインスタンスを使ってみた。
- 16. Amazon EKSとTerraformを組み合わせたとある事例
- 17. IT初心者のSORACOMジャーニー SORACOM Kryptonで認証キーを手放す
- 18. [AWS]Amplify DataStore を Vue で使う
- 19. AWS re:Invent 2019のEXPO出展企業を現地限定ノベルティと共に振り返る
- 20. 今年の自分を振り返る
固定IPを持たないAWS EC2へ毎回同じコマンドでsshする
EC2のパブリックIPは起動するたびに変更されるため、sshする場合は起動するごとに変更が必要になります。
それだと面倒なのでAWS CLIでパブリックIPを取得してsshするようにします。
#### 前提
– AWS CLIがインストールされている
### コマンド
“`bash
ssh {ユーザー名}@$(aws ec2 describe-instances –instance-ids {インスタンスID} | grep PublicIpAddress | sed -E ‘s/[^1234567890.]*//g’)
“`#### 別解
`jq`コマンドがあるなら
“`bash
ssh {ユーザー名}@$(aws ec2 describe-instances –instance-ids {インスタンスID} | jq -r ‘.Reservations[].Instances[].PublicIpAddress’)
“`とするのも良いでしょう
`$()`記法はbash用のものなのでそれ以外のシェルでは合わせたものを使ってください。
AWS CodePipeline で始めるデプロイオートメーションの話
この記事は[ウィルゲート Advent Calender 2019](https://qiita.com/advent-calendar/2019/willgate) 6 日目の記事です!
前回は @MayaGalaxy の「[キーキャップの本を技術書典に出した話](http://mayagalaxy-b.hatenablog.jp/entry/2019/12/05/115215)」でした。# はじめに
最近業務のことよりスノーボードのことが頭から離れない [@int_sorarinu](https://twitter.com/int_sorarinu) です。WEB アプリケーションを各サーバ群にデプロイする手法というものは数え切れないほど沢山ありますが、今回は AWS の CodePipeline というツールを使ってデプロイを行ってみました。
# AWS CodePipeline とは
AWS が提供している完全マネージド型の継続的デリバリーサービスで、定義したリリースモデルに基づき、コードチェンジがあった場合のフェーズの構築、テスト、デプロイを自動化してくれる優れたツ
簡易的な社内向けAtlassian製品のクラウドサービスを構築してみた話
私の所属している[リックソフト株式会社](https://www.ricksoft.jp/)では、Atlassian製品をはじめとしたツール製品の販売を行っています。
今回、製品を購入検討中のお客様向け評価環境提供や、社内向けの検証環境として使える、簡易的な社内向けAtlassianサーバ製品のクラウドサービスを構築してみました。(当社が提供している[リッククラウド](https://www.ricksoft.jp/cloud/rickcloud/)とは別のものです)
社内では「インスタできる君」と呼ばれているもので、今回はこの社内向けクラウドサービスについて、技術的な内容を含めながらご紹介します。
## 概要
Atlassianのサーバ製品を、Web上から簡単に作成して利用できるシステムです。
本システムを利用することで、お客様への評価環境や、社内向けの検証環境を、数分で準備することが出来ます。
次より、具体的な環境作成の流れを説明していきます。## アプリケーション環境作成の流れ
フロントエンド(管理画面)から「追加」をクリックします。
![image.png](h
増殖Lightsailで動画納品のデータ転送費を無料にする話
増える、そして食べられる
この記事は [Wano Group Advent Calendar 2019](https://qiita.com/advent-calendar/2019/wano-group) の6日目の記事となります。
## Video Kicks
Wanoグループでは [VideoKicks](https://www.tunecore.co.jp/video_kicks?via=115&gclid=Cj0KCQiAz53vBRCpARIsAPPsz8Wwlt6fw3jIeMJ_MlLxP1ah7jhLrouUwOuM21Fnsn_zQ2rNLAD6ppYaAst-EALw_wcB)というミュージックビデオ納品代行サービスを展開しています。
現在は、グループ会社である [
mockmockでAmazon Kinesis Data Streamsにデータを送るプロジェクトを作成する
この記事は、[mockmockアドベントカレンダー](https://qiita.com/advent-calendar/2019/mockmock)6日目の記事です。
昨日は@cheekykorkindによる「[mockmockでAzure IoT Hubにデータを送るプロジェクトを作成する](https://qiita.com/cheekykorkind/items/2f8cffc9263044b30d99)」でした。
今回はIoTシステムでよく使われるAmazon Kinesis Data Streamsにデータを送るプロジェクトを作成してみます。
## Data Streamの作成
Kinesisの画面に行き、DataStreamを作成します。
今回は東京リージョンにシャード数1で作成します。
AWS CDKとGithub ActionsでIAMユーザーを管理してみた【CI/CD】![adv_cal.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/423088/7242c969-e533-ecd1-8141-bdde4b02021d.png)
本記事は**[うるる Advent Calendar 2019](https://adventar.org/calendars/4548) 6日目**の記事です。
# TL;DR
先日[こちらの記事](https://qiita.com/KsntsTt/items/4824bacf80d2f500f837)で書いたものの続きと言いますか、運用に導入してみたのでそのお話です。
今まではIAMユーザー作成に関してTerraformで管理をしていたのですが、新しいアカウントができたのでタイミング的にちょうどいいこともありCDKでIAMユーザーの管理をしてみようと思いました。
またデプロイに関しては、Github Actionsを利用することにしました。
AWS CDKの実装やGithub Actionsに至った理由などをお伝えしていきたいと思い
初学者がDocker on Railsで開発したアプリをAWS EC2にデプロイする際につまづいたこと
# はじめに
私はプログラミングを半年弱ほど独学している者です。
今回、Rails + Dockerで開発したアプリケーションをAWS EC2にデプロイするところでつまづき、まる一週間を浪費してしまいました。
この記事が、同じようにつまづいている方の一助となれれば幸いです。また、今回作成したアプリケーションのソースコードは以下のURLからご覧いただけますので、良いコードではございませんが参考にできそうな部分があれば、参考にしてみてください。
https://github.com/aiirononeko/GoodCoffeeByGoodBarista
# ①production環境で動作する設定にしていなかった
基本中の基本すぎて笑えてきます…笑
いや、笑えません…。
実際production環境で動作するように設定をしておらず、この一週間を溶かしたと言っても過言ではありません。
一番最初にデプロイしたときは、productiond環境で立ち上がってすらおらず、RDSとの連携ができなくてつまづいてました。Docker on Railsで開発したアプリケーションをpro
Amazon Kinesis + WebRTC
##Amazon KinesisがWebRTCのサポートを開始したようです。
https://aws.amazon.com/jp/about-aws/whats-new/2019/12/amazon-kinesis-video-streams-adds-support-for-real-time-two-way-media-streaming-with-webrtc/ユースケースの「赤ちゃんの監視」が微笑ましい。
>Typical uses include interactive video and audio between a video doorbell or baby monitor and your mobile phone, video chat, and peer-to-peer media streaming正しくはSTUN/TURNの提供のようです。
コンソール上にもチャネル作成の項目があります。
![Amazon_Kinesis_Video_Streams.png](https://qiita-image-store.s3.ap-northeast-1.am
Transit Gateway Multicast を使って、EC2で Multicast を試してみる
# 概要
Transit Gateway が Multicast に対応したので実際に EC2 で Multicast を試してみる。
**AWS Transit Gateway にマルチキャストとインターリージョンピアリング機能を追加**
https://aws.amazon.com/jp/blogs/news/aws-transit-gateway-adds-multicast-and-inter-regional-peering/**Multicast on Transit Gateways**
https://docs.aws.amazon.com/ja_jp/vpc/latest/tgw/tgw-multicast-overview.htmlTransit Gateway を使いますが、特に VPC をまたがらないとだめなわけではなく、1つの VPC でも動きます。
#注意点
**EC2インスタンスによっては出来ないやつがあるみたいだ**
https://docs.aws.amazon.com/ja_jp/vpc/latest/tgw/tgw-mul
ParquetにしたOSMのデータをEMRでいじってみる
# 目的
昨日PBFからParquetに変換したOpen Street Mapのデータを、AWS EMRでspark-sqlを使って触ってみる。
全球データ=大きい → 分散処理したい → AWS EMR今回は、[こちら](https://georgheiler.com/2019/05/03/osm-to-spark/)と[こちら](https://georgheiler.com/2019/05/07/analyze-osm-data-in-spark/)を参考にして、データ処理していきます。
# 準備
## S3にParquetのデータをアップロード
前回作ったParquetのデータ3ファイルをS3のバケットにアップロードします。僕は簡単にAWSコンソールからアップロードしましたが、aws-cliを使うなり方法は他にもありますね。
## キーペアの用意
EMRクラスタ用のキーペアを作って、ダウンロードしておきます。使うOSやSSHクライアントに合わせて鍵ファイルを選んでください。
## クラスタの立ち上げ
AWSコンソールからEMRクラスタを立ち上げます。
ログ記
terraformでさくっとiamユーザーとグループを作ってみる
こんにちは。[株式会社アダコテック](https://adacotech.co.jp/)のテックリードをしておりますkackyと申します。[terraform Advent Calendar 2019](https://qiita.com/advent-calendar/2019/terraform)の5日目の記事です。12月5日の22時から書き始めているのでかなりタイムアタックになっておりますw
# やりたいこと
terraformでiamユーザを作って、それをグループに所属させる。そんなことをさくっとしたいときのやり方tipsです。@raki さんのご指摘により記述を直しました!有用なご指摘ありがとうございます☆
# ユーザー管理テーブルを変数定義する
こんな感じでユーザーとグループを対で登録します。“`
variable “users” {
type = map(list(string))
default = {
“kacky” = [“developer”],
“tech” = [“developer”],
“adaco” =
見せて貰おうか、Amazon新サービス「CodeGuru Reviewer」の性能とやらを
# はじめに
これは、NTTコミュニケーションズ Advent Calendar 2019 5日目の記事です.関連記事は[目次](https://qiita.com/advent-calendar/2019/nttcom)にまとめられています。前日は[@TAR_O_RIN](https://qiita.com/TAR_O_RIN)さんによる[TektonでCI/CDパイプラインを手の内化しよう – Qiita](https://qiita.com/TAR_O_RIN/items/81a6abf947aea0a8deee)でしたね!
## あなたはだ〜れ?!
昨年書いた[深層学習を利用した食事画像変換で飯テロ – Qiita](https://qiita.com/negi111111/items/6d6f19edc060a91662ec)に既に書いてあるので省略します。好きな言語はObjective-Cです。お世話になった言語もObjective-Cです。嫌いな言語もObjective-Cです。最近はPythonしか書いてないのでマンネリ化が激しいです。最近のマイブームは**夜な夜な
【Python用】AWS Lambda Layerへのアップロードファイルをササッと作る
# 前提
Dockerを利用して、Lambdaで使うPythonライブラリのLayerアップロード用zipを作る。
手順はrequestsをzipにする場合のサンプル。# 手順
ホストOSで、ライブラリを使うバージョンのPythonコンテナにアタッチする。
“`sh
$ docker pull python:3.8
$ docker images
$ docker run -itd ImageID bash
$ docker attach ContainerID
“`コンテナ側では、pipでライブラリを取得し、zipにまとめる。
“`sh
$ apt-get update & apt-get install zip
$ mkdir python & pip install requests -t ./python
$ zip -r upload.zip python
“`「Ctrl + p, Ctrl + q」でコンテナから抜け、コンテナからホストにzipをコピーし、コンテナを終了させる。
“`sh
$ docker cp ContainerID:/roo
AWS EC2になぜかS3のマウントができない(/xxx/xxx にアクセスできません)
## はじめに
* これは自分が実務で大いにハマった事象です。。。
* AWSを商用利用したのは初めてということもあり、初歩的なミスかもしれませんが、もしかしたら他にも苦しんでいる方がいるかもしれないので、ノウハウをシェアします。## 事象
* 東京リージョンに作成したEC2を作成。
* データ領域として、S3をマウントしようと試みた。
* [EC2インスタンスにS3をマウントする](https://qiita.com/shicky1121/items/e19b50308c79e5a6081e) ←こちらの記事のように設定をしました
* `s3fsコマンド`を導入し、マウントを行ったところ、一見うまく実行できたように見える。
* `echo $?`による戻り値は0
* ところが`lsコマンド`や`dfコマンド`で状況を確認しようとすると、以下のエラーが出力される。“`
[ec2-user@ip-xxx-xxx-xxx-xxx ~]$ ls -al /xxx/xxx
ls: reading directory /xxx/xxx: 入力/出力エラーです
[ec2-
AWS で ARMのインスタンスを使ってみた。
# AWSでARMを使てみる
## はじめに
偶々AdventCalenderをを見ていたら12/5の分が余っていたためエントリして急いで作りました。
会議中ですが、爆速で執筆します。2018年11月にAWSでARMが使えるインスタンスの発表がありました。
https://aws.amazon.com/jp/blogs/news/new-ec2-instances-a1-powered-by-arm-based-aws-graviton-processors/こういう機能のようです。
https://aws.amazon.com/jp/ec2/instance-types/a1/ARMって耳にはしますが使ったことがないなー。ということでとりあえず使ってみます。
## 配備をしてみる
通常のEC2のAMIは使えないようです。
![image.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/214695/10d66f2d-543d-3cec-4093-dc9676bac2c4.png)
Amazon EKSとTerraformを組み合わせたとある事例
## はじめに
これは、[Amazon EKS Advent Calendar 2019](https://qiita.com/advent-calendar/2019/amazon-eks) 6日目の記事です。
現在関わっているプロジェクトにおいて進行中のKubernetes移行で取り入れた技術や方法について、少し紹介したいと思います。
現状の構成がベストプラクティスであるということではなく、試行錯誤した結果の**途中経過**となりますが、何らかのヒントになれば幸いです。## 前提
– Amazon EKS 1.14
– ワーカーノードはEC2(Fargateではない)
– IaCはTerraform 0.12系を使う## Terraformでどこまで適用するか
はじめ、EKSクラスタについてはAWS CLIでの構築を考えていました。その理由としては、
– Terraformの適用環境はCodeBuildである(IAMロールを使う)
– kubectl実行環境は別にある(EC2+SessionManager+SSHの踏み台的な環境)という前提で、kubectlの
IT初心者のSORACOMジャーニー SORACOM Kryptonで認証キーを手放す
***本記事はSORACOM Advent Calendar 2019の6日目のものです!***
「クラウドって何?サーバーって何?」の状態で、2018年8月からPython・AWSを勉強し始めて、今年はJAWS-FESTA2019にて「IT初心者のクラウドジャーニー」というテーマでプレゼンして、2019年11月12日 SORACOM-UG#1 札幌初開催! 勢いのままに、Qiita初投稿です!
#初心者は何から始めるか?
プログラムもデバイスもクラウドサービス利用も全部わからないけど、自己満足できるレベルのアウトプットを求めて、IoT〜通信〜クラウドまで一連で勉強するテーマを決めました。
***「定期的に写真を撮るデバイスを作って、簡単なホームページを開設してみる」***
##初期の構成要素
|構成| デバイス| 備考|
|——————|——————|:——————:|
| デバイス | Raspberry Pi| 3B+ |
| 通信手段 | SORACO
[AWS]Amplify DataStore を Vue で使う
# はじめに
先日 Amplify DataStore というものがリリースされました。
詳しくは[公式ブログ](https://aws.amazon.com/jp/blogs/aws/amplify-datastore-simplify-development-of-offline-apps-with-graphql/)で確認していただければいいのですが、簡単に使ってみたところ、GraphQLの書き方をしなくてもGraphQLを使えるという感想でした。
今までAmplifyでAppSync(GraphQL)を使っていたやり方と比較しながら解説していこうかと思います。([参考記事](https://qiita.com/is_ryo/items/b9feeb017366b0cee544))## Getting Started
まずVueのプロジェクトを作りましょう。
“`
$ npm install -g @vue/cli
$ vue create amplify-datastore-sample
$ cd amplify-datastore-sample
“`ampl
AWS re:Invent 2019のEXPO出展企業を現地限定ノベルティと共に振り返る
アメリカのラスベガスで開催されている、AWSの年次カンファレンス「re:Invent 2019」には、グローバルから数多くの企業が出展しています。
企業の出展ブースはEXPOと呼ばれ、多くの来場客で賑わっています。
そんなre:InventのEXPOを回ってきましたので、私が会話した出展企業を振り返り、傾向などを分析したいと思います。
![image.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/211986/94f0adc7-0139-bce7-3536-af684b60ebce.png)![image.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/211986/71e17fc0-53ef-651d-e050-008005ec0d4b.png)
でも、ただ振り返るだけでは面白くないので、これだけ回ってきたんだぞと言わんばかりに、**各ブースで配っていたノベルティを紹介**していきたいと思います。
# そもそも
今年の自分を振り返る
こんにちは
[株式会社Diverse](https://diverse-inc.com)で働いていますpython_spameggsです。
6日目の記事になります。
タイトル通り今年一年の自分がやって来たことを振り返りたいと思います。# 1月〜3月
### 社内ツール
AWSへ移転する時に必要ではないものは予め無くしておきたかったので誰も使用していないものを洗い出して停止、削除しました。
弊社の制度で本を購入するのに補助してくるのでその申請が簡単にしやすくするものを作成しました。
### DNS移管
AWSへ移管しました。
[rspec-dns](https://github.com/spotify/rspec-dns)を使用して漏れがないことを確認しました。
### AWS CodeBuildとTerraformを使用してAWSサービスを作成
PRを作成すると`terraform plan`が実行されてPRがマージされると`terraform apply`が実行されます。
こちらを参考にしました。[Terraform どこで実行していますか?](https://medium.co