- 1. Pythonのzip()関数
- 2. Discord BOTでのレジ及び売上管理について(GTA RP/FiveM)
- 3. にエクスポートするアプローチを整理してみる
- 4. 初心者でもわかる!Hugging Faceを使いこなして、RAG風プロンプトエンジニアリングで精度UPする方法
- 5. Pythonで辞書の値の合計を求める
- 6. 円周率をもとめたい ―𝛑の近似計算の手法の比較―
- 7. pyenvでPython3をインストールする方法
- 8. Python3: GATT をスキャン
- 9. ロボット開発プラットフォームのまとめ集(ROSなど)
- 10. PyTorchに入門しよう① Tensorの使い方
- 11. BigQueryを使用してCSVデータを集計する
- 12. プログラミング初心者のQAエンジニアがExcelからテスト実行するプログラムを作ってみた
- 13. DockerのUbuntuコンテナにPython3をインストール
- 14. BIKE SHARING DEMAND データ分析
- 15. FastAPIで簡単なリアルタイムチャットの仕組みを作る
- 16. 【Python】venvを利用した仮想環境
- 17. お酒の画像をCNNに学習させてみる
- 18. 【備忘録】Python×Seleniumでデータ収集を自動化
- 19. Output練習のためProjectEulerを解いてみる #1
- 20. 【Python】unicodedata.normalize(‘NFKC’)について。互換分解してから再度合成するとは?
Pythonのzip()関数
# はじめに
Pythonのzip()関数を使うと、複数のイテラブル(リスト、タプル、辞書、集合のように繰り返し可能なオブジェクト)から要素を取り出し、対応する要素をまとめることができます。
# zip()関数の使用例
例えば、キーと値が別々のイテラブルであっても、dict()関数とzip()関数を使うことで簡単に辞書を生成することができます。
~~~Python:zip_dict.py
drink = ‘milk’, ‘tea’, ‘coffee’, ‘juice’ # キーのイテラブル
price = 160, 210, 150, 250 # 値のイテラブル
dict(zip(drink, price))
# {‘coffee’: 150, ‘juice’: 240, ‘tea’: 220}
~~~
# zip()関数を使用する場合の注意点
異なる長さの複数のイテラブルにzip()関数を使用すると、zip()関数は**短いほうのイテラブルに合わせて処理を終了してしまう**ので、長いほうのイテラブルに**処理されなかった要素が存在することを警告してくれません**。
# どうすればいい
Discord BOTでのレジ及び売上管理について(GTA RP/FiveM)
# 導入の背景について
FiveMで猫カフェのアルバイトをやっており、最初はスプレッドシートで管理していたが、猫カフェのオーナーになったことを機にDiscordでのレジを導入しました。目的としては、計算のしやすさ、各人の売上の見える化、お店へのバック分の集計、人気商品の情報取得などを行えるようにしました。
## 実際のDiscord画面
【レジ画面】
![スクリーンショット 2024-09-16 14.39.36.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/3868301/6c1b872e-1fb3-6f33-6205-bc13d67185d6.png)![スクリーンショット 2024-09-16 14.47.09.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/3868301/eb448895-ac12-3aeb-d2b1-7f27cb458b64.png)
【販売報告チャンネル】
![スクリーンショット
にエクスポートするアプローチを整理してみる
フローの全体感はこんな感じでシンプルです。トリガーは手動にしていますが、必要に応じてスケジュールトリガーなど、目的に応じて変更ください。個人的にこの方法が一番簡単で、また、選択アクションを使うのでパフォーマンスも良いかなと思っています。[Dịch vụ kế toán quận 11](https://ketoanphamgia.com/dich-vu-ke-toan-quan-11/)
まず、CSV エクスポートしたいリストからデータを取得します。必要に応じてフィルターをします。
初心者でもわかる!Hugging Faceを使いこなして、RAG風プロンプトエンジニアリングで精度UPする方法
# Hugging Faceとは
自然言語処理(NLP)や機械学習(ML)に関するプラットフォームです。トレーニング済みモデルが公開されているので、ここから簡単にダウンロードして使用できます。https://huggingface.co/
こんなことを言っていいのかわからないけれど、見た目が胡散臭いのよ。
![スクリーンショット 2024-09-25 13.31.09.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/846404/7c3792c7-7c82-db34-e4f4-ba1d347fc8ed.png)## この記事で出来るようになること
Meta社の作成したLlama3モデルを用いて、テキスト生成ができるようになります。
技術の発展が目覚ましいのであれですが、Llama3は日本語においても高い性能を持つモデルの1つです。# 事前準備(アカウント作成まで)
## Meta社のサイトからLlama3の利用申請
下記のMeta社のサイトから申請を行います。https://ai.met
Pythonで辞書の値の合計を求める
# 辞書とは
辞書とは**キーと値のペアでデータを保持するデータ構造**です。
Rubyでいうところの連想配列(ハッシュテーブル)にあたります。リストやタプルの場合、データ(値)の数が多くなるとどれがどのデータ(値)だったか調べるのが難しくなります。その点、辞書はデータ(値)をキーで管理できるためどのデータなのか判別しやすいという利点があります。
# Pythonで辞書の作成
Pythonで辞書を作成するのには複数のやり方があります。やり方1:キーと値を個別に指定
~~~Python:dict_create1.py
# 以下のように波括弧{}の中に「キー: 値」のように記述すると辞書が作成されます。
scores = {“ネットワーク”: 60, “データベース”: 80, “セキュリティ”: 55}
print(scores) #{“ネットワーク”: 60, “データベース”: 80, “セキュリティ”: 55}
~~~
やり方2 : dict型のコンストラクタdict()を使う
~~~Python:dict_create2.py
# キーワード引数キー=値を指定するとキー
円周率をもとめたい ―𝛑の近似計算の手法の比較―
## TL;DR
– 円周率の近似計算の手法を比較した
– **効率的なアルゴリズム**について考察した## はじめに
本記事は、[芝浦工業大学 工学部サマースクーリング](https://admissions.shibaura-it.ac.jp/admission/summer_schooling.html)(情報・通信工学課程)に参加した経験を再構成し、作成したものです。内容の大半は、私自身の調査・研究によって明らかにしたものですが、一部において、TAや教員の方々にサポートしていただいた部分があります。この場を借りて、ご協力をいただいた方々に感謝申し上げます。
**また、本記事の公開において問題がございましたら、早急に対応しますので、コメント機能もしくはwisteriatp@gmail.comまでご連絡をお願いいたします。**### おことわり
筆者は数学やプログラミングに関する知識が十分ではないため、本文に誤りが含まれている可能性があります。ご指摘、アドバイス等いただけますと幸いです。
## 1. 目的
より高精度な近似計算をするために、**効率的なアルゴリズム
pyenvでPython3をインストールする方法
今回はMacBookにpyenvでPython3をインストールする方法について紹介します。
使用したMacBookのバージョンはこちらです。↓
MacBook Pro 13, 2019 – macOS Sonoma 14.6.1MacBookには標準でPythonがインストールされています。ですが、今後Pythonでの開発を進めていく中で、異なるバージョンのPythonを使用したくなったり、複数のバージョンを用いる必要がでてくることを想定し、pyenvを使用したインストール方法を選択します。
pyenv(パイエンブ)とは、簡単に言えば「複数のバージョンのPythonを簡単に管理できるツール」です。
##### 手順は以下の通りです。↓
1. ターミナルを起動する
1. Homebrewをインストールする
1. pyenvをインストールする
1. Pythonをインストールする### 1 ターミナルを起動する
これからの作業は全てこのターミナル上で行います。### 2 Homebrewをインストールする
pyenvをインストールするためには「Homebrew」(ホームブ
Python3: GATT をスキャン
## Ubuntu 24.04 にライブラリーをインストール
“`bash
sudo apt install python3-bleak
“`## バージョンの確認
“`text
$ python
Python 3.12.3 (main, Sep 11 2024, 14:17:37) [GCC 13.2.0] on linux
Type “help”, “copyright”, “credits” or “license” for more information.
>>> from importlib.metadata import version
>>> bleak_version = version(“bleak”)
>>> print(bleak_version)
0.21.1
“`## プログラム
“`py:ble_scan.py
#! /usr/bin/pythonimport asyncio
from bleak import BleakScannerasync def run():
devices = await BleakSca
ロボット開発プラットフォームのまとめ集(ROSなど)
## はじめに〜なぜこの記事を書こうと思ったか〜
今までロボット制御の開発プラットフォームというとROS、ROS2くらいしか知らなかったが、ROSだけでもROS#やIsaac Simなどフレームワーク・ミドルウェアは増えてきた。
備忘のため、この記事にまとめる。1.ROS
一番有名な印象。各種モジュールはC++で基本書かれていて、Pythonで全体制御できる。
2.ROS2
ROSの後継プラットフォーム。ROS2での開発コンペなど出てきているので、本格的にROS(ROS1)からの移行が進んでいるようだ。
今後勉強する際は、ROS2をメインで勉強したい。
・[ROS2 Foxy公式ドキュメント]( https://docs.ros.org/en/foxy/index.html )
3.Isaac SDK:
・NVIDIAが開発したロボティクス開発プラットフォーム
・C++とPythonのAPIを提供
・UnityプラグインでIsaacSimとの連携が可能
・AIと深層学習の統合に強み
・https://developer.nvidia.c
PyTorchに入門しよう① Tensorの使い方
## はじめに
今更になってAIの勉強を始めたいと思ったため、PyTorchのチュートリアルを読んで学習をしました。
この記事では、PyTorchのチュートリアルの内容を日本語に翻訳して、一部情報を追記しながらまとめていきます。私の実行環境は下記のとおりです。
`Debian 13`
`Python 3.11.9`
`PyTorch 2.4.1`## Tensorとは
Tensorとは、配列や行列によく似たPyTorch独自のデータ構造です。
PyTorchではモデルへの入力や出力、パラメータの調整にこれを使います。
Tensorの利点として以下が挙げられます。
– GPUやハードウェアアクセラレータ上に配置可能
– 学習に必要な自動微分に最適化されている## Tensorの生成方法
必要なライブラリのインポート
“`Python
import torch
import numpy as np
“`### データから直接生成する
tensor()を使うことで、リストや数値から直接Tensorを生成することができます。
“`Python
data = [[1,2
BigQueryを使用してCSVデータを集計する
### はじめに
pandasで生徒の点数のデータフレームを作成しCSVファイルへ変換を行いGCSへアップロードします。
その後BigQueryからGCSのCSVファイルを読み込み平均点を算出してみます。### GCSへCSVファイルのアップロード
sampleデータを作成し、CSVファイルをGCSにアップロードします。
まず、GCSへ接続するために必要なPythonライブラリをインストールします。
“`py
pip3 install google-cloud-storage
“`
pandasで生徒のテストの点数を作成します。
“`py
import pandas as pd# サンプルデータの作成
data = {
‘Student’: [‘Alice’, ‘Bob’, ‘Charlie’, ‘David’, ‘Eva’],
‘Math’: [88, 92, 75, 90, 85],
‘Science’: [95, 85, 80, 70, 90],
‘English’: [78, 89, 85, 95, 92]
}
# データをData
プログラミング初心者のQAエンジニアがExcelからテスト実行するプログラムを作ってみた
## どのくらいプログラミング初心者か
– 就活時代:Javaを少し勉強する
– QA(1~2.5年目):ブラックボックステスト中心でコードなんてわからない
– QA(2.5~3年目):テスト自動化とかもあるし、そろそろ勉強するか
– Progate、Udemy、友人からpythonのもろもろを教わる
– 基礎知識できたし、ちょっと何か作ってみる## 今回のプログラムについて
今回の目標は「勉強の応用編としてプログラムを作成する」を目標としたため、GUI形式/ローコードのテスト実行プログラムではない。
手動で以下の対応が必要となる。
– Excelファイルの作成
– 作成ファイルの該当行にxpathや実行してほしい内容を記載
– コマンドプロンプトでpy [ファイル名].pyを実行また、以下の基礎的な操作が実行できるだけである。
– ボタンなどの押下
– テキストボックスなどへの入力
– 文章の比較
## 環境情報
### OS
– Windows11### 言語
– Python3### ライブラリ
– Selenium
– openpyxl##
DockerのUbuntuコンテナにPython3をインストール
前回からの続き
ubuntuのdockerコンテナを準備したのはいいけど
Pythonって入ってんの?“`
# python3
bash: python3: command not found
“`うん入ってないね
インストールしましょう
その前にapt-getをupdateしましょう
“`
# apt-get update
“`終わったらPythonをインストールしましょう
“`
# apt-get install -y python3 python3-pip
“`インストールされてるか確認
“`
# python3
Python 3.12.3 (main, Sep 11 2024, 14:17:37) [GCC 13.2.0] on linux
Type “help”, “copyright”, “credits” or “license” for more information.
>>>
“`よし、終わり😊
BIKE SHARING DEMAND データ分析
Aidemy様の専門実践教育訓練講座を受講、これの最終成果物として記事作成。
Kaggleの上位2.9%という結果。
講座修了の合否に使用される記事は順序立て・考察等で冗長な為、詳細な考察を少々省いたものを作成。
この記事を見ると同じ分析ができて、且つなぜその分析を行うかという理由も理解できるように情報量は残した(つまり、依然膨大な記事)。
目次から気になる点へ飛んでいただけると良いと思う。講座修了用の「冗長なバージョン」はこちら:
https://qiita.com/SumMae/items/f0f221735f94c06c609e
# 目次
– [**はじめに~記事概略まとめ**](#はじめに記事概略まとめ)
– [**分析環境**](#分析環境)
– [**テーマについて**](#テーマについて)
– [Bike Sharing Demand 概略](#bike-sharing-demand-概略)
– [分析用データ](#分析用データ)
– [評価指標](#評価指標)
– [目標値設定]
FastAPIで簡単なリアルタイムチャットの仕組みを作る
## はじめに
はいどうも、たねだです。
相変わらずPythonの勉強をしています。さて、今回はFastAPIを使って最小限の機能を備えたリアルタイムチャットの仕組みを作りました。
引き続きQiitaに掲載していくかどうかはさておき、今後さらに内容をアップデートしていきたいと思った仕組みになったので
ちょっとしたプロトタイプとして記事に残そうと思います。
ただ、実際に中身を作ったのは少し前のことなので忘れているところもあるかもしれませんがあしからず。また、いつも通り今回の内容も公開リポジトリを置いてますので、
よかったらこちらもご覧いただければと思います。https://github.com/t4ned4/realtime-chat-system/tree/main
## さっそく作っていく
今回も`Python3.12.4`でつくっていきます。
私の記憶が正しければ、特別に構築したような環境はなかったと思います。特に今回はほぼ最小単位でつくりますのでディレクトリ構成も下記の通り非常にコンパクトです。
![image.png](https://qiita-image
【Python】venvを利用した仮想環境
# はじめに
最近現職の同期と勉強がてらアプリ制作を始めました。
そこで初めてPythonを触って仮想環境なるものを知りました。
今回はvenvを利用した仮想環境の作成方法について備忘録として残します。# 環境
– macOS: 15.0(24A335)
– Python: 3.12.5 (グローバル)
– Visual Studio Code : 1.93.0 (Universal)# Pythonの仮想環境とは?
自身のPC上で、独立したPythonの実行環境を作成する仕組み。
下記のようなメリットがあるようです。> (1)環境ごとに異なるバージョンのPythonを使える
> (2)環境ごとに異なる外部ライブラリをインストールできる
> (3)環境ごとに異なるバージョンの外部ライブラリをインストールできる引用元: [実務で必須の「Python仮想環境」について学ぼう!](https://www.insource.co.jp/python-gakuin/mail-backnumber/vol30.html)
# 仮想環境の作成と利用方法
仮想環境を作成する方法は
お酒の画像をCNNに学習させてみる
## はじめに
[前回の記事](https://qiita.com/cnysntry/items/448d592c8d317de1b9f6)で少ない画像データを平行移動や回転などを行い増やす手段について記載しました。今回はその増やしたお酒の画像データをCNNに学習させ、ディープラーニングでどこまで正確に判断できるかについて試してみました。## お酒画像を学習させる
まずは、以下の8種類のお酒画像を各10枚ずつ準備し、[前回の記事](https://qiita.com/cnysntry/items/448d592c8d317de1b9f6)の方法を使ってデータ拡張してCNNで学習させてみました。lagavulin
bowmore
caolila
kilchoman
bunnahabhain
bruichladdich
ardbeg
laphroaigその結果は以下の通りとなりました。
![isla_10.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/3750854/864111d9-6e0b-
【備忘録】Python×Seleniumでデータ収集を自動化
# はじめに
Pythonの「requests」と「bs4(beautifulsoup)」を使って、ウェブサイトからデータをスクレイピングしようとしましたが、そのサイトは動的にデータを表示するタイプだったため、思うようにデータを取得することができませんでした。そこで、「Selenium」を試したところ、うまくスクレイピングができましたので、備忘録として「Python × Selenium」を使ったスクレイピングの方法をまとめておきたいと思います。
# 想定する読者
* Python × Seleniumでデータ収集を自動化したい方# Seleniumとは?
Seleniumは、ウェブブラウザを自動で操作するためのオープンソースのテスト自動化ツールです。ウェブアプリケーションの機能テストやスクレイピング、ブラウザ操作の自動化に使用されます。Seleniumは、開発者やテスターが実際にブラウザを使って行う操作をプログラムでシミュレートすることができます。
**主な特徴**
1. ブラウザ自動操作
* Seleniumを使用すると、ブラウザで行う操作(ページの読み込
Output練習のためProjectEulerを解いてみる #1
本日から、コーディング力の向上とアウトプットする力を高めるために、毎週一問ProjectEulerの問題を解いてみようと思います。いろいろ至らない点もあると思いますが、ご容赦いただければと思います。
# ProjectEulerとは
数学の問題をプログラムを用いて解くサイトです。最初の100問までは答えを掲載してもよいという規則があるので、そこまで記事を書くことを目指していこうと思います。#### マイルール
– 拡張性を持たせる
条件として、N <= 1000000 とかがあるのですが、その条件を厳しくしても成り立つようなコードを書いていこうと思います
– 一つのコードで完結させる
前処理とかが必要な問題でも、なるたけ一つのコードで完結させるようなコードを書きたいと思います。
– 読みやすいコードを書く
基本的には、コーディング規約とリーダブルコードに従ったコードを書いていきます。では早速解いていこうと思います。
# #1 Multiples of 3 or 5
問題文 If we list all the natural numbers below 10 that ar
【Python】unicodedata.normalize(‘NFKC’)について。互換分解してから再度合成するとは?
# 概要
Pythonの`unicodedata.normalize`の`NFKC`を使ってみたので、サンプルコードと共に紹介します。# Unicodeの正規化のNFKCとは?
`unicodedata.normalize`は、そのまま「Unicodeの正規化」という意味です。
[Wikipedia](https://ja.wikipedia.org/wiki/Unicode%E6%AD%A3%E8%A6%8F%E5%8C%96)は以下のように説明されています。> Unicode正規化(ユニコードせいきか、英語: Unicode normalization)とは、等価な文字や文字の並びを統一的な内部表現に変換することでテキストの比較を容易にする、テキスト正規化処理の一種である。
Pythonで使う`unicodedata`モジュールとは、Unicode文字列を正規化するためのライブラリ(関数)です。
また、`NKFC`について、[公式ドキュメント]()には以下のように記載がありました。
> 正規形 KC (NFKC) は、互換分解を適用してから、標準分解を適用します。