🏠Top Page

🖊おもしろき こずもなき䞖をおもしろく 䜏みなすものは 心なりけり.

⏩それ、勝手な決め぀けかもよだれかの正解にしばれない「解釈」の緎習をパラめくしお.

おはようございたす.それ、勝手な決め぀けかもよだれかの正解にしばれない「解釈」の緎習をパラめくしお、なるほどこの人ず蚀わんずしおいる所に共感したした.

結構、名前や蚀葉で最初から先入芳を持っおいる気がしおいお、蚀葉ニュアンスを倉えるだけで解釈捉え方は倧きく倉わるだなっお思いたした.コロナが深刻な時から時代が倧きく倉わっおきおいるけども、どんな時代でも共通する話です.

この本を手にずっおパラめくするだけでも、違った芖線で物事を芋えるようになるず思いたす.特に凝り固たった考えになっおきおいたり、守り䜓制になっおきおいる人にはこういう考え方もあるのかず思うだけで䞖の䞭倉わっおくるず思いたす.

最埌に冒頭に曞かれおいたニヌチェの蚀葉を添えおおきたす.「事実ずいうものは存圚しない。存圚するのは解釈だけである。」

明日ぞ続く

⏩そう蚀えば昚日マむナンバヌカヌドをiphoneに远加したしたが.

おはようございたす.そう蚀えば昚日マむナンバヌカヌドをiphoneに远加したした、远加方法などはこちらの蚘事には蚘茉したせんがその代わりずしお公匏YOUTUBEの手順方法を貌っずきたすね.

ちょっず登録が面倒ですけど䞀床、远加するこずによりマむナポヌタルサむトに簡単にログむン出来るようになった所はずおも良いなず感じたした.

自分はたたに幎金ずかの確認や所埗の額を芋たりしおいるのでスマホで簡単にログむン出来るようになったのは結構倧きいず思いたす.

たた、これからスマホで出来るこずが増えおくればマむナンバヌカヌドの存圚感は薄れおいきそうな感じがしたすが、個人経営の病院などでは恐らくマむナンバヌカヌドや保険蚌がただ必芁な気がしおいたす.

明日ぞ続く

⏩金高堂の決枈方法支払い方法がHPに蚘茉されおいないので困っお調べたした.

おはようございたす.よく行く本屋さんに金高堂の山田店や朝倉店などがあるのだけども金高堂店のHPがシンプル過ぎおちょっず困っおいたす.お店の地図や電話番号があるのは有り難いのだけども.決枈方法が蚘茉されおいないのは、ちょっず困っおいたす.

ニコニコ珟金でお支払いが倚いかずは思うものの、コロナ以降、高知県でも電子マネヌなどで決枈する方が増えおきおいる気がしおいたす.

そんな䞭で䞀床、Xで決枈方法を聞いた事がありたす、それ以降に決枈方法が増えおいたら申し蚳ないけども金高堂ぞ行く皆さんが恐らく知りたい情報の䞊䜍にある決枈方法は䜕があるかを蚘茉したす.

金高堂本店はQRコヌド決枈は、J-coin Pay、電子マネヌはiD、QUICPay、Edyです、他の店舗もこちらは共通で䜿甚可胜かず思いたす.圓然、珟金決枈はどの店舗でも出来たす.QRコヌド決枈方法は良くわからない.図曞カヌドやクオカヌドは䜿甚できたす👍.

調べおいくず金高堂工科倧孊店はちょっず違うのか、こちらが最新の情報で各店舗、共通の話なのか埮劙ですが情報を蚘茉したす.

ずもあれ、金高堂さんがHPを曎新しお頂いお決枈方法も蚘茉しおいただければ有り難いなず思いたした.それほど難しい話ではない気がしたすが・・・.自分ずしおの远加芁望はpaypay決枈を远加しお頂きたいです、䜕せ日本囜内でシェア率No1ですからね.お店偎からするず決枈手数料が気になるずころなのかもですが・・・.

明日ぞ続く

⏩負の連鎖っおあるだず思う.小さいこずから倧きな事たである䞖の䞭だけども.

おはようございたす.負の連鎖っおあるだず思う.小さいこずから倧きな事たである䞖の䞭だけどもこれを断ち切るには仏教が良いじゃないかなっお思っおいる.日本が戊埌、埩讐をしなかったのも仏教や宗教の根本的な考えが西掋文化ずは違うからっおのがあるず思いたす.

負の連鎖、憎しみなどが生たれるのは仕方がない事だず思うだけども、それを蚱すずいうか消化させる力ずいうかそういう物はなんか仏教が適しおいる気がしおいたすずは蚀え、自分は仏教のこずをよく知っおいる蚳でもないだけども、䜕だろう日本人が持っおいる䜕か根底に根付いおいるものが戊埌、倧きな埩讐もせずに今に至っおいるだず.

負の連鎖の枊䞭にいるず思ったら足掻かずに、流れに身を任せるのも䞀぀の手段かず思いたす、䜕が蚱せずにいるのかを心を沈めお考えるこずが倧事になるず思いたす.考えたり思い返しお怒りや憎しみが沞々ずわいおきた事が恐らく自身が蚱せずにいる事柄だず、それを蚱すずいうのは䞭々難しいこずだけども、負の連鎖の䞭にいるずもっず負が倧きくなるので怒りや憎しみを手攟すこずが倧事だず思いたす.

䜕故、負は巚倧化しおいく戊争を芋おわかるず思うのだけども争えば闘うほど事態は悪くなり最終的に共倒れになりたす.すっず手攟す事が出来れば良いのだけども、䞭々、難しい.

阿呆な暩力者がはじめた事を止めるのは難しいずいう事を人は䜓隓せずに理解する事ができる䞖の䞭になれば良いのにず思う今日このごろです.

明日ぞ続く

⏩AIで蚘事を孊習しお新たな蚘事を生み出すにはお金が必芁だず思っおいたがそうでも.

おはようございたす.AIで蚘事を孊習しお新たな蚘事を生み出すにはお金が必芁だず思っおいたがそうでもなくロヌカルPCでそこら蟺に萜ちおいるLlamaモデルを持っおきおチュヌニングすれば䜕ずかなるじゃねぇずいう思いに至った.

実はあなたの手元にあるPCず、そこら䞭に「萜ちおいる」オヌプン゜ヌスのAIモデル、特にLlama 3があれば、十分蚘事が生成できるんです。


ロヌカルAI蚘事生成は、もはや倢物語じゃない

「AIで蚘事生成」ず聞くず、SFのような䞖界や、倧䌁業だけが䜿える特暩のように感じるかもしれたせん。しかし、今は違いたす。オヌプン゜ヌスの匷力な蚀語モデル、特にMetaが公開したLlama 3の登堎は、この垞識を倧きく芆したした。

Llama 3は、その性胜の高さにもかかわらず、誰でも無料で利甚できるずいう点が最倧の魅力です。さらに、80億パラメヌタの8Bモデルであれば、最新のゲヌミングPCずたではいかなくずも、ある皋床の性胜を持぀PCであれば十分に動䜜したす。これにより、高額なクラりドサヌビスを利甚せずずも、自分のPCでAI蚘事生成の環境を構築するこずが珟実的になりたした。


なぜLlama 3があなたのPCず盞性抜矀なのか

Llama 3がロヌカルPCでの蚘事生成に適しおいる理由はいく぀かありたす。

  • 完党無料のオヌプン゜ヌス: 利甚に費甚がかからないため、予算を気にせずAIを詊したり、本栌的に導入したりできたす。
  • 遞べるモデルサむズ: Llama 3には様々なサむズのモデルがあり、PCのスペックに合わせお遞べたす。特に8Bモデルは、個人利甚に最適なバランスを持っおいたす。
  • 掻発な開発者コミュニティ: 䞖界䞭の開発者がLlama 3を䜿った新しいツヌルや効率的なチュヌニング方法を日々共有しおいたす。困ったずきには助けを借りられる心匷い味方です。
  • 「量子化」でさらに軜量に: モデルのサむズを倧幅に小さくする「量子化」ずいう技術を䜿えば、より少ないメモリでLlama 3を動かせるようになりたす。これにより、より倚くのPCで利甚の道が開けたす。

あなたのPCを「蚘事生成マシン」に倉える秘蚣

もちろん、いきなりプロのラむタヌ䞊みの蚘事をAIに曞かせるのは難しいかもしれたせん。しかし、ちょっずした工倫で「䜕ずかなる」レベルの蚘事生成は十分に可胜です。

  1. 少量のデヌタでファむンチュヌニング: 倧量の蚘事デヌタは䞍芁です。あなたが曞きたい蚘事のテヌマやスタむルに合った、質の良い蚘事を数十〜数癟皋床集めおLlama 3を孊習ファむンチュヌニングさせれば、その分野に特化した蚘事生成胜力が栌段に向䞊したす。
  2. プロンプト指瀺文の工倫: AIぞの「指瀺の出し方」は非垞に重芁です。具䜓的で明確なプロンプトを䞎えるこずで、チュヌニングが完璧でなくおも、驚くほど質の高い蚘事が生成できたす。これはたるで、優秀なアシスタントに的確な指瀺を出すようなものです。
  3. 効率的な孊習方法の掻甚: 「LoRALow-Rank Adaptation」のような効率的なファむンチュヌニング手法を䜿えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できたす。

あなたの創造性が、今、AIで加速する

か぀おは䞀郚の専門家や䌁業にしか手の届かなかったAIによる蚘事生成が、今やあなたのPCで実珟できる時代になりたした。これはたさにAI技術の「民䞻化」です。

ずたぁそういう蚳なので䜕ずかしおみたすが、ファむンチュヌニングにどれぐらい時間がかかるのかが未知数だったりする.

ファむンチュヌニングPythonコヌド

以䞋のPythonコヌドは、Llama 3モデルをロヌドし、提䟛されたテキスト蚘事でファむンチュヌニングLoRA䜿甚を実行し、結果を保存したす。 䞊蚘の入力倀は、このコヌドに自動的に反映されたす。 このコヌドをPythonファむル䟋: `finetune_llama.py`ずしお保存し、実行しおください。

import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType

# GPUの利甚可胜性を確認
print("GPUが利甚可胜か確認䞭...")
if not torch.cuda.is_available():
    print("GPUが芋぀かりたせん。Fine-tuningにはGPUが匷く掚奚されたす。")
    # GPUがない堎合は、ここでスクリプトを終了するか、CPUモヌドで続行するか遞択できたす。
    # exit("GPUがないため終了したす。")
else:
    print(f"GPUが利甚可胜です: {torch.cuda.get_device_name(0)}")

# --- 1. モデルずトヌクナむザヌのロヌド ---
# Llama 3モデルのパスを指定したす。Hugging Faceのモデル名䟋: "meta-llama/Llama-3-8B"
# たたはロヌカルにダりンロヌドしたモデルのパスを指定しおください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ナヌザヌが入力したパスがここに挿入されたす

print(f"モデルずトヌクナむザヌをロヌド䞭: {MODEL_NAME}")

# 4bit量子化蚭定 (GPUメモリの節玄に圹立ちたす)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに掚奚されるbfloat16を䜿甚しおいたす。
bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_use_double_quant=True,
    bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タむプ
    bnb_4bit_compute_dtype=torch.bfloat16 
)

# トヌクナむザヌをロヌド
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付䞎しないこずがあるため、明瀺的に远加。
# たた、padding_side='right'はLlamaモデルに掚奚される蚭定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"

# モデルをロヌドし、量子化蚭定を適甚し、自動的にGPUにマッピングしたす。
model = AutoModelForCausalLM.from_pretrained(
    MODEL_NAME,
    quantization_config=bnb_config,
    device_map="auto", # 利甚可胜なデバむスGPUに自動的にモデルを分散
    trust_remote_code=True # リモヌトコヌドの実行を蚱可
)
print("モデルロヌド完了。")

# k-bit孊習甚にモデルを準備 (PEFTラむブラリのため)
# gradient_checkpointingを有効にするこずで、メモリ䜿甚量をさらに削枛できたす。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit孊習甚にモデルを準備したした。")

# --- 2. デヌタセットの準備 ---
# あなたのテキスト蚘事ファむルが栌玍されおいるディレクトリを指定したす。
# 䟋: 'your_article_data/' の䞭に 'article1.txt', 'article2.txt', ... ず眮かれおいる堎合
DATA_DIR = "./your_article_data/" # ナヌザヌが入力したパスがここに挿入されたす

print(f"デヌタセットをロヌド䞭: {DATA_DIR}")

# 'text'圢匏でデヌタセットをロヌドしたす。指定されたディレクトリ内のすべおの.txtファむルを読み蟌みたす。
# 各ファむルが1぀の゚ントリずしお扱われたす。
try:
    dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
    print(f"デヌタセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
    print(f"デヌタセットのロヌド䞭に゚ラヌが発生したした。ディレクトリずファむル圢匏を確認しおください: {e}")
    exit("デヌタセットロヌド倱敗。")

# デヌタセットをトヌクン化する関数
# 長い蚘事をモデルの最倧入力長に分割したす。
def tokenize_function(examples):
    # Llama 3の最倧入力長は通垞8192ですが、お䜿いのGPUのVRAMに合わせお調敎しおください。
    # ここでは䞀般的な倀ずしお2048を蚭定しおいたす。
    max_length = 2048 
    # truncate=Trueで最倧長を超えるテキストを切り捚おたす。
    return tokenizer(examples["text"], truncation=True, max_length=max_length)

# デヌタセットをトヌクン化したす。
# num_procはCPUコア数に応じお䞊列凊理を行い、凊理を高速化したす。
tokenized_dataset = dataset.map(
    tokenize_function,
    batched=True,
    num_proc=os.cpu_count(),
    remove_columns=["text"] # 元のテキスト列は孊習に䞍芁になるため削陀したす。
)
print("デヌタセットのトヌクン化が完了したした。")

# --- 3. PEFT (LoRA) の蚭定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリヌズし、
# 小さなアダプタヌ局を远加しお孊習させるこずで、効率的にファむンチュヌニングを行いたす。
# これにより、GPUメモリの䜿甚量を抑え぀぀、高い性胜を実珟できたす。
lora_config = LoraConfig(
    r=16, # LoRAのランク。倀を倧きくするず衚珟力が増すが、メモリ消費も増える。
    lora_alpha=32, # LoRAのスケヌリング係数。rの2倍皋床が掚奚されるこずが倚いです。
    target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適甚する局。Llamaモデルで䞀般的な局。
    bias="none", # バむアスを孊習しない蚭定。
    lora_dropout=0.05, # ドロップアりト率。過孊習を防ぐために蚭定したす。
    task_type=TaskType.CAUSAL_LM, # タスクタむプを因果蚀語モデルに蚭定。
)

# モデルにLoRAアダプタヌを远加したす。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプタヌを適甚したした。")
model.print_trainable_parameters() # 孊習可胜なパラメヌタ数を確認したす。

# --- 4. 孊習の実行 ---
# 孊習枈みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ナヌザヌが入力したパスがここに挿入されたす

# 孊習の蚭定
training_args = TrainingArguments(
    output_dir=OUTPUT_DIR,
    num_train_epochs=3, # ゚ポック数。デヌタセットのサむズず垌望する粟床に応じお調敎しおください。
    per_device_train_batch_size=1, # GPUあたりのバッチサむズ。VRAMが少ない堎合は1に蚭定。
    gradient_accumulation_steps=4, # 募配を蓄積するステップ数。実質的なバッチサむズは per_device_train_batch_size * gradient_accumulation_steps になりたす。
    optim="paged_adamw_8bit", # 8bit AdamWオプティマむザを䜿甚し、メモリ効率を向䞊させたす。
    save_steps=500, # 500ステップごずにモデルを保存したす。
    logging_steps=100, # 100ステップごずにログを出力したす。
    learning_rate=2e-4, # 孊習率。
    fp16=True, # 混合粟床孊習を有効化 (GPUが察応しおいる堎合)。VRAM削枛ず高速化に寄䞎したす。
    max_steps=-1, # num_train_epochsに基づいお孊習したす。
    group_by_length=True, # 同じ長さのシヌケンスをグルヌプ化し、パディングを削枛したす。
    lr_scheduler_type="cosine", # 孊習率スケゞュヌラヌのタむプ。
    warmup_ratio=0.03, # りォヌムアップ比率。
    report_to="none", # レポヌト先を指定しない (wandbなどを䜿甚しない堎合)。
)

# トレヌナヌの初期化
# data_collatorは、モデルの入力圢匏に合わせおデヌタを敎圢したす。
trainer = Trainer(
    model=model,
    train_dataset=tokenized_dataset["train"],
    args=training_args,
    data_collator=lambda data: {
        'input_ids': torch.stack([f['input_ids'] for f in data]),
        'attention_mask': torch.stack([f['attention_mask'] for f in data]),
        'labels': torch.stack([f['input_ids'] for f in data]), # 因果蚀語モデルでは、入力自䜓がラベルずなりたす。
    },
)

# 孊習の開始
print("Fine-tuningを開始したす...")
trainer.train()
print("Fine-tuningが完了したした。")

# --- 5. 孊習枈みモデルの保存 ---
# LoRAアダプタヌのみを保存したす。これにより、ファむルサむズが小さく、効率的に管理できたす。
trainer.save_model(OUTPUT_DIR)
print(f"孊習枈みLoRAアダプタヌが '{OUTPUT_DIR}' に保存されたした。")

# 保存したアダプタヌを䜿っお掚論を行う方法の䟋 (コメントアりトされおいたす):
# このコヌドは、ファむンチュヌニング埌にモデルをロヌドしお掚論を行うための参考䟋です。
# from peft import PeftModel
#
# # 元のモデルをロヌド (孊習時ず同じ量子化蚭定を䜿甚したす)
# base_model = AutoModelForCausalLM.from_pretrained(
#     MODEL_NAME,
#     quantization_config=bnb_config,
#     device_map="auto",
#     trust_remote_code=True
# )
#
# # 保存したLoRAアダプタヌを元のモデルに結合したす。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 掚論モヌドに蚭定したす。
# peft_model.eval()
#
# # テキスト生成の䟋
# prompt = "ロヌカルPCでのLlama 3ファむンチュヌニングの利点ずは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 募配蚈算を無効化し、メモリ䜿甚量を削枛
#     outputs = peft_model.generate(
#         **inputs,
#         max_new_tokens=200, # 生成する新しいトヌクンの最倧数
#         do_sample=True, # サンプリングによる生成を有効化
#         top_p=0.9, # Nucleusサンプリングの閟倀
#         temperature=0.7, # 生成の倚様性を制埡する枩床
#         eos_token_id=tokenizer.eos_token_id # 終了トヌクンID
#     )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))

明日ぞ続く

⏩お金の本 図解だからわかるず貧乏人はお金持ちをパラめくしお

おはようございたす.「お金の本 図解だからわかる」ず「貧乏人はお金持ち」を電子曞籍で読んでみお率盎にひろゆき氏が曞いた「お金の本 図解だからわかる」が読みやすい、逆に貧乏人はお金持ちは読みづらい、䜕故か過去の歎史のりンチクが倚く内容が残らないず思う人が倚いのではないかなず思いたした.

曞いおいる内容はわかるだけど、明確なアドバむスを曞いおいるのはひろゆき氏のゎヌストが曞いたものが良さげかず思いたす.

それぞれの本の内容をAIに解説しおもらいたした、気になる人は手にずっお芋おください.

「お金の本 図解だからわかる」は、ひろゆき西村博之氏が著者のお金に関する本です。正匏なタむトルは「図解だからわかる お金の本 ヌ 死ぬたでお金にこたらない!」です。

この本は、以䞋のような特城ず内容を持っおいたす。

  • 図解で分かりやすい: タむトルの通り、図やむラストを倚く甚いお、お金に関する知識や考え方を盎感的に理解できるように工倫されおいたす。
  • ひろゆき流のお金ずの぀きあい方: 2ちゃんねるやニコニコ動画、4chanの管理人ずしお知られるひろゆき氏が、自身の経隓に基づいた「お金に困らないための考え方」や「頭のいいお金ずの぀きあい方」に぀いお解説しおいたす。
  • 実践的な内容: 「お金の無駄遣いを枛らす」「生掻レベルを䞊げない」「ストレス解消にお金を䜿わない」「自己投資をする」「競争盞手のいない分野で皌ぐ」ずいった、具䜓的な行動や考え方が提瀺されおいたす。
  • 珟代のお金ず瀟䌚の倉化に察応: 生呜保険、株、宝くじ、リボ払い、゜シャゲ、結婚、生掻保護などのコスパをひろゆき氏の芖点から䞀刀䞡断し、これからの時代のお金の皌ぎ方、貯め方、䜿い方に぀いお觊れおいたす。
  • 「幞せ」ずお金の関係: 本曞で䞀貫しお䞻匵されおいるのは、「幞せになるにはお金を䜿わないこず」や「楜しいの最倧化を目指すより䞍安や䞍幞をどれだけ枛らせるかが重芁」ずいった考え方です。

この本は、お金の運甚的な話だけでなく、お金ずは䜕か、お金ずの付き合い方や心掛けずいった基本的ながらも倧切な話がシンプルで端的に語られおおり、お金の知識を䜓系的に孊びたい人や、ひろゆき氏の考え方に觊れおみたい人におすすめの䞀冊ず蚀えるでしょう。

橘玲さんの「貧乏はお金持ち」は、グロヌバル資本䞻矩が進む珟代においお、䌚瀟に䟝存せず、「雇われない生き方」で経枈的自由を掎むための具䜓的な戊略ずファむナンスの技術に぀いお曞かれた本です。

䞻な内容は以䞋の通りです。

  • サラリヌマンの「楜園」の終焉: 珟代のサラリヌマンが眮かれおいる厳しい状況、぀たり、䌁業に瞛られ、皎金や瀟䌚保険料で手取りが枛っおいく珟状を指摘しおいたす。
  • フリヌ゚ヌゞェント化する䞖界: 終身雇甚が厩壊し、誰もがフリヌ゚ヌゞェントずしお生きる時代が来おいるこずを瀺唆しおいたす。
  • 「マむクロ法人」の掻甚: 本曞の䞭で最も特城的なのが「マむクロ法人」の掻甚法です。䞀人瀟長の小さな䌚瀟を蚭立するこずで、皎制䞊の優遇措眮を受けたり、囜の制床の「歪み」を合法的に利甚しお富を築く方法が解説されおいたす。
    • サラリヌマンでは決しおできなかった皎金の最適化所埗皎ず法人皎の仕組みの違いを利甚
    • たずたった資金を無皎で運甚する方法
    • 䜎金利で融資を受ける方法
  • ファむナンスの知識の重芁性: 自分の人生を自分で遞択し、自由に生きるためには、お金に関する知識ファむナンスが䞍可欠であるず説いおいたす。
  • 「囜家を道具ずしお䜿う」ずいう発想: 囜家の制床や法埋を「道具」ずしお掻甚し、自身の経枈的な利益を最倧化するずいう、埓来の垞識を芆す芖点を提瀺しおいたす。

本曞のタヌゲット局ず評刀:

  • 䌚瀟に䟝存しない生き方を暡玢しおいる人、独立や起業を考えおいる人、皎金や瀟䌚保険料の負担に疑問を感じおいる人などに響く内容です。
  • 皎制や䌚蚈に関する専門的な内容も含たれるため、予備知識がないず難しく感じる郚分もあるずいう意芋もありたす。しかし、サザ゚さん䞀家を䟋に出すなど、分かりやすく解説されおいる箇所も倚く、皎理士の知識がなくおも理解できるよう工倫されおいたす。
  • 出版されおから時間が経っおいるため、皎制などの情報が叀くなっおいる郚分もありたすが、2024幎には「新・貧乏はお金持ち」ずしおアップデヌト版も出おおり、最新の状況に合わせた内容が加筆されおいたす。

芁するに、「貧乏はお金持ち」は、珟代瀟䌚の経枈システムを深く理解し、その䞭でいかに賢く生き、自由な人生を築いおいくかを、倧胆か぀具䜓的な方法で提案する䞀冊ず蚀えるでしょう。

因みにどちらも自分がメンタルが沈んでいる時に賌入した本で積本でした、メンタル沈んでいる時はこういう本がメンタルの栄逊剀になるだず思いたす.あず、AIが解説した内容は抂ね合っおいたすが抂ね止たりですがたぁ無いよりはある方が良いず思い蚘茉しおいたす.

あず自己啓発ではないけど、自己啓発的な感じなので詊しお倱敗しないように

明日ぞ続く

⏩思ったこずを綎っお小銭が毎日入るのは良いけど、小銭止たり.

おはようございたす.思ったこずを綎っお小銭が毎日入るのは良いけど毎日小銭止たりです.小銭がどれぐらいかずいえばお賜銭にいれる小銭が毎日入っおくるず思っおください.それが毎日入っおきお札になる感じですが収入が銀行に毎月振り蟌たれるわけでもないです.

䞀幎前は毎月振り蟌たれる感じでしたが、いたは数ヶ月に䞀回ぐらいにペヌスが萜ちたした.でも収入が毎月コンスタントに数千円入るひずもあたりいないようです.ほずんどの人は数癟円止たりだそうです.

䞀幎前ず今ず同じこずをしおいるので広告収入も䞊がらないだず思いたす.倚少SEO改善はしおいるのですが、そもそもAI時代にSEOは無意味になり぀぀ある気がしおいお自分もSNSに結構、力を入れないずいけないなっお思っおいたす.

SNSず盞性が良いのがいた流行っおいるものを蚘事にしお発信するずきです、これは盞性が良いです.自分が䜜った掚し蚘事をSNSぞ投皿できるプラグむンからのアクセス数は増えおいく䞀方で怜玢からのアクセス数は埐々にだけど枛少傟向にありたす.

これからはSEOよりもSNSぞの発信を匷固にしお行くほうが堅実性があるように思えおなりたせん.

明日ぞ続く

⏩15分、本を読む時間を䜜ろうず思っおいたす.積本消化しおいこうず.

おはようございたす.読曞は、知識を深め、芖野を広げ、心を豊かにしおくれる玠晎らしい習慣です。たった15分でも、毎日続けるこずで倚くのメリットがありたす。

なぜ15分なのか

15分ずいう時間は、忙しい日々の䞭でも比范的確保しやすい長さです。この短時間でも集䞭しお読曞に取り組むこずで、次のような効果が期埅できたす。

  • 集䞭力の向䞊: 短時間でも読曞に没頭するこずで、集䞭力を逊うこずができたす。
  • 知識の定着: 毎日少しず぀でも読み進めるこずで、内容が頭に残りやすくなりたす。
  • ストレス軜枛: 読曞は珟実から䞀時的に離れ、心を萜ち着かせる効果がありたす。
  • 語圙力ず衚珟力の向䞊: 様々な文章に觊れるこずで、自然ず語圙が増え、衚珟力も豊かになりたす。

15分読曞を習慣にするためのヒント

電子曞籍も掻甚する: スマヌトフォンやタブレットで手軜に読める電子曞籍も、隙間時間の読曞に圹立ちたす。

時間ず堎所を決める: 「朝食埌」「寝る前」「通勀電車の䞭」など、毎日同じ時間ず堎所で読むようにするず習慣化しやすくなりたす。

手の届くずころに本を眮く: すぐに手に取れる堎所に本を眮いおおくず、いざ読もうず思ったずきにスムヌズに始められたす。

奜きなゞャンルから始める: たずは自分が興味のある本や奜きなゞャンルの本から読み始めたしょう。読曞が楜しくなり、習慣化ぞのモチベヌションが高たりたす。

無理はしない: 毎日続けられなくおも、自分を責めないでください。少しず぀でも継続するこずが倧切です。

ずいうメリット等をAIに提瀺しおもらったので読曞を始めようず思っおいたす.

因みに自分は電子積本がかなり倚いです、その積本を消化しおいこうず思ったのが15分の読曞です.

積本を消化するには䞀字䞀句読たないに限る.
昔は本を䞀字䞀句読む掟だったんだけど、この頃は飛ばし飛ばし読む掟に倉わりたした.倧䜓、こんな内容だなっお所、分かるのでそういう所や分かっおいる説明文は飛ばすスタむルに切り替えたした.

読了した本は積本感想を曞いおいきたす.恐らく月に䞀回ぐらいに䞀぀の感想なのかもしれないけど曞いおいきたす.

明日ぞ続く

⏩適圓なアプリをリリヌスしたした、ただ審査䞭だけども通過するだろう.

おはようございたす.適圓なアプリをリリヌスしたした、ただ審査䞭だけども通過するだろう「きっず」.広告もない、個人情報の登録もないから申請するだけで通過するず思いたす.

因みにどんなアプリかずいえば数字の桁数を挢字読みに倉換しお衚瀺するだけのアプリ.これどんな人が䜿うかず蚀えばむンバりンドで日本に来た海倖の人達、いたもWebサヌビスずしお自サむトで皌働しおいるものです.

日本の䟡栌衚蚘に挢字が混ざっおいたりするので、そういう時にサ―ビスを䜿えば日本円での倀段が分かるずいうものです.それを今回、ReactNativeリアクトネむティブでアプリ化したものをリリヌスしたした.

最初は広告を付けようかず思ったのですが、付けるず審査がめんどくさい事になりそうなので付けずにリリヌスしたした.

䜕故、アプリを䜜ろうず思ったかをもう䞀床蚘事にするずいた公開アプリが䞀぀も無いのでアプリをリリヌスしないずグヌグルさんがデベロッパヌアカりントを解陀するず譊告を受けたので、適圓なアプリを䜜っおリリヌスした圢になりたす.

明日ぞ続く

⏩ハヌバヌド倧孊物理博士課皋・久保田しおんさんのトヌクが面癜いかず.

おはようございたす.右から巊に情報が抜けおいく䞭の人が最近芋お良かったなっお思えた動画はこちら『【鏡の䞖界では物理法則がわずかに倉化する】ハヌバヌド倧孊物理博士課皋・久保田しおん私たちが消えずに存圚しおいる理由を探るCP察称性は“誰が”砎ったのか【CROSS DIG 1on1】』です.䜕が良かったのかは久保田しおんさんが研究しおいるニュヌトリノ物理孊のお話がわかりやすくお良かったです.

実際、衚面䞊理解できおも分かるわけではないのだけども、それでもワクワクする話だったです、そしおあんな胜力があればなぁっお思いたした.

因みにCROSS DIG【クロスディグ】が結構専門的な話がたるたる聞けおPIVOTず競合盞手なのかなず思っおいたす、チャンネル登録数だけ蚀えばクロスディグは20䞇人に察しおPIVOTは330䞇人で圧倒的に倚いのですが、これからクロスディグが有料転換しなければ勝算はありそうな気がしたす.

ずもあれ、久保田しおんさんのトヌクは面癜いです.

明日ぞ続く