- 1. 構造体の作成
- 2. Python初心者の備忘録 #08 ~DSに使われるライブラリ編03~
- 3. 多原子イオン(三角錐形または平面三角形)の抽出ログ
- 4. Visual StudioとPythonでWebスクレイピングを入門してみる
- 5. Visual StudioでPythonを試してみる
- 6. データ型の変換(Java、Python)
- 7. pythonでmp3ファイル一括圧縮(ビットレート変更)する方法
- 8. 多原子イオン(四面体形)の抽出ログ
- 9. gptのvisionモデルを使って生成AI画像を分析して分析結果を使用してDALL·E -3で再度画像を生成してみた
- 10. 3年目エンジニアがPythonで躓いたこと5選
- 11. Pythonでプログラムを継続的に実行させる方法
- 12. Python.HTMLfoam受信・表示UTF-8
- 13. Create a crawler with Python 【Web scraping】
- 14. 配列の要素をランダムに取り出す
- 15. python.UTF-8エンコード成功。
- 16. 駄目グラフ006
- 17. 【Python3】paizaでよく使う入力・出力コードまとめ
- 18. AWS Lambda(Python)からOpenAIのGPT4のAPIを呼び出してみた
- 19. python.Fileから複数行を読込むreadlineを使わず。
- 20. A summary of scraping from the basics [Introduction to scraping]
構造体の作成
https://paiza.jp/works/mondai/class_primer/class_primer__make
PHPはこちら
https://qiita.com/Atsulabo/items/bdb81382c89c52f1b930
今度はPythonでやってみました。
ちなみに今回始めて。(仕事ではまあまあ作ってたけど。。。)なんか、、、outputの文字列を作るところがきたないなあ。。。
と思ったのだけど、なかなかいいサンプルが見つからず。
(こちらで成功はしました)
とりあえずあげておきます。
f文字列を使えればいいのだけど、{}の扱いがうまくいかず、
他の方法で対応しました。
どうも{}はfのなかだと、エスケープをつかってもなかなかうまくいかない。
知ってる方いましたら教えて下さい。。。“`py
#class
class Member():
def __init__(self, nickname, old, birth, state):
self.nickname = nickname
self.old =
Python初心者の備忘録 #08 ~DSに使われるライブラリ編03~
# はじめに
今回私は最近はやりのchatGPTに興味を持ち、深層学習について学んでみたいと思い立ちました!
深層学習といえばPythonということなので、最終的にはPythonを使って深層学習ができるとこまでコツコツと学習していくことにしました。
ただ、勉強するだけではなく少しでもアウトプットをしようということで、備忘録として学習した内容をまとめていこうと思います。
この記事が少しでも誰かの糧になることを願っております!
**※投稿主の環境はWindowsなのでMacの方は多少違う部分が出てくると思いますが、ご了承ください。**
最初の記事:[Python初心者の備忘録 #01](https://qiita.com/Yushin-Tati/items/961dc47d6163f944f7e9)
前の記事:[Python初心者の備忘録 #07 ~DSに使われるライブラリ編02~](https://qiita.com/Yushin-Tati/items/81b6aed684c055432454)
次の記事:まだ今回は**MatPlotlib**についてまとめております。
多原子イオン(三角錐形または平面三角形)の抽出ログ
## 三角錐形または平面三角形の多原子イオン抽出スクリプトの取説
### スクリプトの実行方法確認
“`terminal
python3 get_trigonal_pyramidal_planar_shape_ion_contained_pos_folder_p_list.py -h
“`
usage: get_trigonal_pyramidal_planar_shape_ion_contained_pos_folder_p_list.py
example: python3 get_trigonal_pyramidal_planar_shape_ion_contained_pos_folder_p_list.py CO3 C O 0.99 1.66 ../get_some_speceis_existed_poscar_path_list/C_O_existed_poscar_folder_path_list.npyThis script takes five arguments: arg1,
Visual StudioとPythonでWebスクレイピングを入門してみる
# 概要
[Visual StudioでPythonを試してみる](https://qiita.com/GOROGOROMOGUMOGU/items/9c15a0cf5435ea15163a) で開発環境を作りました。
今回は、もう少しPythonを学習します。
ネタは、Webスクレイピングです。以下のライブラリを使います。
Requests 2.31.0
Beautiful Soup 4.12.3# ライブラリのインストール
## パッケージのインストール手順
1\. ソリューションエクスプローラー → Python 環境 → すべてのPython 環境を表示![すべてのPython環境.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/3674221/b01e3e16-c821-7e2b-3d33-ca098829cca8.png)
2\. Python 環境 → パッケージ(PyPl)
![パッケージ.png](https://qiita-image-store.s3.ap-north
Visual StudioでPythonを試してみる
# 概要
必要に迫られてPythonを学習することになりました。
せっかくなので、学習記録を残します。
VSCodeでの記事が多いので、今回はVisual Studio202を使います。# 開発環境
Windows11 Home 64bit
Python 3.11
Visual Studio2022、コミュニティエディション**前提**
[Visual Studio Community](https://visualstudio.microsoft.com/ja/vs/community/) はインストール済であること# Python インストール
1\. Microsoft Storeで「Python」を選択して入手する![pythonダウンロード.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/3674221/94e84735-8bd4-4fea-db0a-1f9dc25c0d96.png)
2\. インストール完了
![pythonダウンロード完了.png](https://
データ型の変換(Java、Python)
データ型の変換についてまとめました。
今回は整数型から文字列に変換する場合を比較します。***Java***
“`Java
public class Main1 {
public static void main(String[] args) {
// 自分の得意な言語で
// Let’s チャレンジ!!//String line = sc.nextLine();
int A = 437326;
int B = 9085;
int ansA = A / B;
int ansB = A % B;
// ラッパークラスを用いて数値を文字列に変換して出力する
System.out.println(Integer.valueOf(ansA).toString() + ” ” + Integer.valueOf(ansB).toString());
}
}
“`***Python***
“`python3
A = 437326
B = 9085
ansA
pythonでmp3ファイル一括圧縮(ビットレート変更)する方法
# 概要
このPythonスクリプトは、`ffmpeg`を使用して指定されたフォルダ内のすべてのMP3ファイルのビットレートを変更して圧縮するプログラムです。以下にスクリプトの主な部分を説明します。
1. `TARGET_DIR`: MP3ファイルを検索する対象のフォルダを指定します。デフォルトでは`./mp3/`に設定されています。
2. `OUTPUT_DIR`: 出力されるファイルの保存先フォルダを指定します。デフォルトでは`./output/`に設定されています。
3. `BIT_RATE`: 変換後のMP3ファイルのビットレートを指定します。デフォルトでは”96k”に設定されています。
4. `files`: `TARGET_DIR`内のすべての`.mp3`拡張子を持つファイルのリストを取得します。
5. `for`ループ: 各MP3ファイルについて以下の処理を行います。
– `ffmpeg`コマンドを生成します。このコマンドは、入力ファイルとして現在のMP3ファイル、指定されたビットレート、および出力フォルダに保存するファイル名を含みます。
– 生成された
多原子イオン(四面体形)の抽出ログ
## 四面体形の多原子イオン抽出スクリプトの取説
### スクリプトの実行方法確認
“`terminal
python3 get_tetrahedral_shape_ion_contained_pos_folder_p_list_argparse.py -h
“`
usage: get_tetrahedral_shape_ion_contained_pos_folder_p_list_argparse.py
example: python3 get_tetrahedral_shape_ion_contained_pos_folder_p_list_argparse.py NH4 N H 0.82 1.24 ../get_some_speceis_existed_poscar_path_list/N_H_existed_poscar_folder_path_list.npyThis script takes five arguments: arg1, arg2, arg3, arg4, arg5
gptのvisionモデルを使って生成AI画像を分析して分析結果を使用してDALL·E -3で再度画像を生成してみた
## はじめに
#### 記事の目的や背景を説明
生成AIの活用方法を模索する上でOPENAIが提供しているtext-to-speech, speech-to-text,image-genration,visionなどいろいろありますが自社のなかでAIの活用方法が明確化されていないので実際に触ってみてどのようなことができるのか試してみようと思っての試みです。
#### 対象読者
OPENAIのAPIをPythonを使用して実行しますが基本的にPyhton自体には触れないのでVisionとImage-generatorのほんとに基礎の実装方法を知りたい方向けになるかと思います。## 目次
1. OPENAIのVisionとは
2. OPENAIのImage-Generationとは
3. Visionを使用して画像の解析をしてみる
4. 解析された情報を元にプロンプトを作成して画像を再度生成してみる## 1. OPENAIのVisionとは
VisionとはAIの目のようなものです。入力された画像データを元にどういった画像なのかを識別することができます。現在Visionを使用す
3年目エンジニアがPythonで躓いたこと5選
# はじめに
エンジニアとして満2年が過ぎ、3年目に突入しました。最初の3年が肝心と考えながら、過ごしてきました。この記事ではそんな振り返りも兼ねて駆け出しPythonistが躓きやすいことを5つ紹介できればと思います。# Pythonで躓いたこと5選
## 1.動的型付け
Pythonは動的型付け言語です。C++やJavaなどの静的型付け言語とは異なり、変数を定義する際にいちいち型を指定する必要がありません。コードの量が少なくなるなどメリットもあるんですが、型の不一致による不具合が発生した場合に調査に時間がかかってしまいます。そんな事情を知りつつも特に工夫することもなかった僕は当時参加していた開発現場のレビューで「動的型付けだからといって型を決めないで良いわけじゃないよ」と指摘(注意)されてしまいました。
それからは型ヒントを書いていくことで静的型付けほどではないですが、ある程度(気のせいかもしれませんが)安全に実装していくことができました。
### 型ヒントを使ってみる
簡単な予約プログラムです。“`py
from datetime import date
fr
Pythonでプログラムを継続的に実行させる方法
### 概要
Python でプログラムを継続的に実行させる方法はいくつか存在します。このドキュメントでは、プロフェッショナルなコーダー向けに、それぞれの方法の詳細とコード例、応用例を紹介します。
### 選択肢
**1. 無限ループ**
* 基本的な手法ですが、効率が悪くリソース消費が激しい可能性があります。
* コード例:“`python
import timewhile True:
print(“タスクを実行します”)
time.sleep(5) # 5秒おきに実行
“`* 応用例:
– センサーデータの定期的な収集・送信
– ウェブサイトの定期的な監視と通知
– ゲームのメインループ**2. スケジューリングライブラリ**
* 複雑なスケジュール設定や並列実行が容易に実現できます。
* コード例 (schedule):“`python
import schedule
import timedef my_job():
print(“タスクを実行します”)schedule.every(1
Python.HTMLfoam受信・表示UTF-8
## Python でブラウザに日本語で表示させる。
ポイント
“`python
value0 = urllib.parse.unquote(value0)
“`
code
“`python
#!C:/Python/python -X utf8
# coding=utf-8# This is a python header.
################## python(anconda header) ###################
#!C:/anaconda/python -X utf8
# coding=utf-8
#############################################################
# 2024/01/23
# information.
# File my_python.cgi
# address1 http://localhost/python_test/my_python.cgi
# address2 http://127.0.0.1/pyth
Create a crawler with Python 【Web scraping】
## クローラーとは?
webサイトを巡回するプログラムをクローラーといい、
pythonを使えば、クローラーを使える。## クローリング前の注意点
– 対象のWebサイトの利用規約を確認する
– 対象のWebサイトのアクセス制限を確認する
– aタグのrel要素の記載を確認し、指示に従う
– 集めた情報を公開しない
– Webサーバーに過度な負荷をかけない## requestsでアクセスする
“`
pip3 install requests
“`“`step1.py
import requests# 表示したいURLを持ってくる
url=”https://creaters-you.com/”
# webページのurlを取得する
response=requests.get(url)
# 文字化けを防ぐ
response.encoding=response.apparent_encoding
# terminalに表示
print(response.text)
“`
“`
cd [プロジェクト]
python3 [ファイル名]
“`
“`step2.p
配列の要素をランダムに取り出す
配列の要素をランダムに取り出すプログラムサンプルです。
“`python3
# randomクラスを読み込む
import random# 結果出力関数
def result(msg):
print(“僕の今日のおかずは” + msg + “です”)# データ配列
array1 = [“秋元真夏”,”長濱ねる”,”矢久保美緒”,”与田祐希”,”影山優佳”,”遠藤さくら”,”齋藤飛鳥”]# 乱数を使ってランダムに配列から要素を取り出す
num = random.randint(0,len(array1)-1)
c1 = array1[num]
# 出力
result(c1)
“`
python.UTF-8エンコード成功。
検証お願いします。
query = re.sub(r’%25′,’%’,query)
query = re.sub(r’%%’,’%25%’,query)
がポイントと思えます。“`python
#!C:/Python/python -X utf8
# coding=utf-8# This is a python header.
################## python(anconda header) ###################
#!C:/anaconda/python -X utf8
# coding=utf-8
#############################################################
# 2024/01/23
# information.
# File my_python.cgi
# address1 http://localhost/python_test/my_python.cgi
# address2 http://127.0.0.1/python_tes
駄目グラフ006
駄目グラフ005 でも書いたが,Jitter を使うのは最低。
Jitter は R などでも,何種類か亜種があるが,どれも使う必然性がないどころか,誤解を生じかねないので使うべきでない。Python/seaborn
![スクリーンショット 2024-01-22 20.48.31.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/2611739/723d5dca-4edc-357e-dccb-7ed81e32276e.png)背景が色付きで,グリッドが白抜きというのも,学術雑誌への投稿としては多分不向き。
【Python3】paizaでよく使う入力・出力コードまとめ
自分用のメモに、paiza(パイザ)でよく使う入力・出力パターンをまとめました。
言語は現在学習中のPython3です。:::note info
**paizaとは?**
paizaラーニングとは、オンラインでプログラミング入門学習ができるサービスです。PCとネット環境さえあれば、環境構築不要でさまざまな言語を学ぶことができます。詳しくは **[paiza公式サイト](https://paiza.jp/)** をご確認ください。
:::# 環境
Python 3.11.5# 前提
paizaの課題では、自動で入力される値に対してプログラミング処理を施し、出力するのが基本になります。
主に処理するのは数字のため、本記事は整数の入力・出力を取り扱います。# 入力パターン
主な入力パターンは、大きく分けて3つです。
1. 値単体を入力
1. 半角スペースで区切られた値を複数入力
– 個別の変数に登録したい場合
– リスト化したい場合
1. 改行で区切られた値を複数入力それぞれのコードは下記の通りです。
### 1. 値単体を入力
“`python:
AWS Lambda(Python)からOpenAIのGPT4のAPIを呼び出してみた
[Supership](https://supership.jp/)の名畑です。[スナックバス江](https://snackbasue.com/)は肩の力を抜いて見られるのでいいですね。年齢を重ねる毎にこういう作品が好きになっていきます。
## はじめに
[AWS(Amazon Web Services)](https://aws.amazon.com/jp/)でWebアプリを作ることがあるのですが、その過程で触れてきたものについて、せっかくなので要点だけを抽出して残しておくことにしました。
特に目新しい内容はありませんが、**AWS**や**OpenAI**のアカウント作成も含めて一通りの流れを残すので、いい具合の備忘になればと。
今回は[Lambda](https://docs.aws.amazon.com/ja_jp/lambda/latest/dg/welcome.html)を経由して[OpenAI](https://openai.com/)の**API**を叩くまでをまとめます。
## Lambdaとは
> AWS Lambda は、サーバーをプロビジョニングま
python.Fileから複数行を読込むreadlineを使わず。
一番簡単なFile読込。
“`python
import os
import sys
import re
# ファイル名
data_file_name = ‘my_test.txt’
f = open(data_file_name, ‘r’)#ファイル読み込み
str = f.read()
f.close()
my_list_in2=str.split(“\n”)print(my_list_in2)#各行は配列に収められている。
“`
with を使わないのが特徴です。
my_list_in2=[‘1′,”,’3′,”]の様な物も読み込めます。最後に改行を入れず書けます。
if my_list_in2[3]==”
my_list_in2[3]=’4’“`python
strw = “\n”.join(my_list_in2)
print(‘myjyoin’,strw)
f = open(“mytest2.txt”, ‘w’)#ファイル書込み
f.write(strw)
f.close()
“`
A summary of scraping from the basics [Introduction to scraping]
## scrapingとは?
○ web上から必要なデータを取得すること
– テキストの取得
– 画像の取得## scrapingの注意点
① 規約違反になっていないか確認する
– Amazon,X,メルカリ,Instagramなど規約で禁止されている② サーバーに負荷をかけないようにする
– スクレイピングは、サーバーにアクセルして情報を取ってくる
– プログラムでデータ取得するので、人間より高速に動作する③ 著作権の侵害をしていないか確認する
– 取得したデータ(rawデータ)をそのまま譲渡すると著作権侵害になる
– 何かしらの分析を加えたデータであれば譲渡しても問題ない## Requestsライブラリの使い方
(1) スクレイピングの流れ
① RequestでHTMLを取得する
② 取得したHTMLを解析する(BeatifulSoup)
③ 自分が欲しい情報を取得する(2) Webスクレイピングで必要なこと
① 何のタグで括られているか?
② どんなidやclassが付いているか(4) Pythonを使ってHTML情報を取得する
① Requestsライ