【AI彼女】AIでエロが叶うハイパーポルノでAI彼女を作ってみた!

皆さん、ハイパーポルノという言葉をご存知ですか?
生成AI時代のエロのことで、自分好みにエロをなんでも作れてしまうことを指します。
え、ご存知ないんですか??!!
すでに海外では、『This Girl Next Door Does Not Exist』というサイトがあり、西洋美女の画像や、映像がたくさん公開されてます。
知ってるけど、肝心な作り方がわからない?
西洋版もいいが、日本人版の作り方を知りたい?
AI彼女を作ってみたい?
かしこまりました。
ご存知ない皆さんのために、ハイパーポルノの概要と、実際の作り方についてまとめています。
この記事を最後まで読むと、可愛いAI彼女を生成できるようになります!
ぜひ最後までご覧ください!
ハイパーポルノとは?
ハイパーポルノとは、生成AI時代の新しいポルノのことです。
顔や体、声など、自分好みのコンテンツを無限に作れるため、ポルノはますます加速しています。
海外ではすでに『This Girl Next Door Does Not Exist』というサイトがあり、ミンディという西洋美女の画像や、映像がたくさん!全て生成AIによるものというのですから、驚きですよね。
※リンクを開くときは十分にお気をつけくださいませ。
エロ文化で世界に負けてられない!
ということで、実際に作ってみました。
彼女や彼氏を”自作”したい皆様に捧げます。
それでは作り方をみていきましょう!
もし、ハイパーポルノがもっと気になる方は、こちらの解説記事もぜひお読みください。

ハイパーポルノでAI彼女を実際に作ってみた
今回は、生成AIを使いこのようなAI彼女を作りました。
可愛い!
使ったサービスは以下の3つです。
- Stable Diffusion
- CoeFont
- Sad Talker
大まかな手順は以下の通りです。
- Civit AIで作りたい画像を探す
- Stable Diffusionで画像生成する
- Coe Fontで話させたい音声を作る
- Sad Talkerで、画像と音声を合成する
それでは詳しく見ていきましょう。
Civit AIで作りたい画像を探す
まず、Stable Diffusionを使う準備として、CivitAIで参考になる画像を探します。
Civit AIは、Stable Diffusionで生成した画像やチェックポイントが共有されているサイトです。
アクセスすると、このように個人が作ったものを確認できます。
私はモデル(CheckpointやLoRA)を探してから作業するので、Modelsで検索してます。
画像を探すときは、Images を使うと良いでしょう。
ワクワクしながら探していると、こちらのチェックポイントが気になりました。
刺激的な画像が出る可能性がありますので、周りをよく確認してからリンクを開いてください。

その中でも、この画像が可愛かったため、プロンプトなどの生成に必要な情報を確認します。
これらは、Civit AIのサイト上で確認できます。
赤枠内にある、プロンプト(Prompt / Negative prompt)やサンプラー(Sampler)、サンプル回数(Steps)をメモしておきます。
ちなみに、このプロンプトは以下です。
a japanese woman walking in the city, buildings, plants ,smile, mixed korean,blur background,
focus, cinematic lighting, (((masterpiece))), ((best quality)), ((intricate detailed)), ((Hyperrealistic)),
absurd res, milf, mature woman, perspective, highly detailed, illustration, 1girl, (big breasts),
beautiful detailed eyes, short hair, dark hair, purple eyes, (casual outfit:1.2), jacket, turtle neck sweater,
skirt, black choker, earrings, high heels, detailed background, perfect eyes, seductive eyes, looking at the viewer,
from front <lora:odanon-lora-v1-128dim-4ep-novae:0.5>
Negative prompt: easynegative, badhandv4, (low quality, worst quality:1.4), poorly drawn hands, bad anatomy,
monochrome, { long body }, bad anatomy , liquid body, malformed, mutated, anatomical nonsense ,bad proportions,
uncoordinated body, unnatural body, disfigured, ugly, gross proportions ,mutation, disfigured, deformed, { mutation},
{poorlydrawn} , bad hand, mutated hand, bad fingers, mutated fingers, badhandv4 ,liquid tongue, long neck,
fused ears, bad ears, poorly drawn ears, extra ears, liquid ears, heavy ears, missing ears, fused animal ears,
bad animal ears, poorly drawn animal ears, extra animal ears, liquid animal ears, heavy animal ears,
missing animal ears, bad hairs, poorly drawn hairs, fused hairs, bad face, fused face, poorly drawn face,
cloned face, big face, long face, bad eyes, fused eyes poorly drawn eyes, extra eyes, bad mouth, fused mouth,
poorly drawn mouth, bad tongue, big mouth, bad perspective, bad objects placement
Steps: 40, Size: 512x768, Seed: 1168656867, Model: Only Meichi real, Version: v1.3.0, Sampler: DPM++ SDE Karras,
CFG scale: 7, Clip skip: 2, Model hash: c7f2cae17c, (monochrome: 1.1), Hires steps: 15, (bad-hands-5: 1.1),
lowres,(Bored pose), static pose, busty bad hands, lowers, long body, disfigured, ugly, cross eyed, squinting,
grain, Deformed, blurry, bad anatomy, poorly drawn face, mutation, mutated, extra limb, ugly, poorly drawn hands,
missing limb, floating limbs, disconnected limbs, malformed hands, blur, out of focus, long neck, disgusting,
poorly drawn, mutilated, ((text)), ((centered shot)), ((symetric pose)), ((symetric)), multiple views,
multiple panels, blurry, multiple panels, blurry, watermark, letterbox, text, easynegative, asian, loli, ,
child, childish", "(low quality: 1.4), Hires upscale: 2, (worst quality: 1.4), Hires upscaler: R-ESRGAN 4x+ Anime6B,
ADetailer model: face_yolov8n.pt, ADetailer prompt: "(((masterpiece))), (((best result))), (((best quality))),
ultra-detailed, beautiful eyes, beautiful face, smiling, blush, ", Noise multiplier: 0, ADetailer version: 23.7.1,
Denoising strength: 0.4, ADetailer mask blur: 4, (bad_prompt_version2: 0.8), ADetailer confidence: 0.3,
ADetailer dilate/erode: 32, ADetailer inpaint padding: 0, ADetailer denoising strength: 0.4,
ADetailer inpaint only masked: True, odanon-lora-v1-128dim-4ep-novae: dbbcb38d0ce9
また、Stable Diffusionでチェックポイントを使うのでダウンロードします。このファイルは後続の作業のため、Google Driveに移動しました。
ほかにも、今回はBlueberrymixというチェックポイントをダウンロードしてます。

また、ネガティブプロンプトで使うためのエンベディング用ファイルもダウンロードしましょう。

これで、Stable Diffusionに入力する情報はゲットできました。
次は、Stable Diffusionを立ち上げましょう。
Stable Diffusionで画像生成する
Stable Diffusionは、こちらのGoogle Colabを使いましょう。
まずは、こちらのGoogle Colabにアクセスしてください。
まずは、Web UI を使うためにこちらのリポジトリをクローンします。
!git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
%cd /content/stable-diffusion-webui
次に、先ほどダウンロードしたチェックポイントをGoogle Driveに移動させるために以下を実行します。
from google.colab import drive
drive.mount('/content/drive')
チェックポイントは、stable-diffusion-webui/models/Stable-diffusion/ というディレクトリに置く必要があります。そのため、Google Driveから、cp コマンドを使ってコピーします。(一例であるため、ご自身の環境に合わせてコマンドを変更ください。)
!cp /content/drive/MyDrive/stablediffusion/xxmix9realisticsdxl_testV20.safetensors /content/stable-diffusion-webui/models/Stable-diffusion/
!cp /content/drive/MyDrive/stablediffusion/chilloutrealistic_v21.safetensors /content/stable-diffusion-webui/models/Stable-diffusion/
!cp /content/drive/MyDrive/stablediffusion/meichidarkMix_meichidarkV45.safetensors /content/stable-diffusion-webui/models/Stable-diffusion/
次は、エンべディング用のファイルです。
こちらは、/content/stable-diffusion-webui/embeddings/ にコピーします。
!cp /content/drive/MyDrive/stablediffusion/embedding/* /content/stable-diffusion-webui/embeddings/
それぞれ終わったら、Web UIを立ち上げるために以下のコマンドを実行します。
!python launch.py --share --xformers --enable-insecure-extension-access
しばらく時間が経つと、以下のようなURLが出力されます。
クリックすると、このようにWeb UIが立ち上がります。
先ほどのチェックポイントもしっかり読み込まれていますね!
エンベディング用ファイルの読み込みも確認できました。
このあとは、プロンプトを入力します。
まずは、プロンプトはこちら。
a japanese woman walking in the city, buildings, plants ,smile, mixed korean,blur background , focus,
cinematic lighting,(((masterpiece))), ((best quality)), ((intricate detailed)), ((Hyperrealistic)),
absurd res, milf, mature woman, perspective, highly detailed, illustration, 1girl, (big breasts),
beautiful detailed eyes, short hair, dark hair, purple eyes, (casual outfit:1.2), jacket, turtle neck sweater,
skirt, black choker, earrings, high heels, detailed background, perfect eyes, seductive eyes, looking at the viewer,
from front
ちなみに、<lora:odanon-lora-v1-128dim-4ep-novae:0.5> という部分は、特定のLoRAがないとプロンプトが効かないので削除しています。
また、「()」を使っているのは、重みづけのためです。
このプロンプトだと、(((masterpiece)))をものすごく強調してることになります。
先ほどのプロンプトを以下のように貼り付けます。
次は、ネガティブプロンプトを入力します。
badhandv4, (low quality, worst quality:1.4), poorly drawn hands, bad anatomy, monochrome, { long body },
bad anatomy , liquid body, malformed, mutated, anatomical nonsense ,bad proportions, uncoordinated body,
unnatural body, disfigured, ugly, gross proportions ,mutation, disfigured, deformed, { mutation}, {poorlydrawn} ,
bad hand, mutated hand, bad fingers, mutated finger, liquid tongue, long neck, fused ears, bad ears,
poorly drawn ears, extra ears, liquid ears, heavy ears, missing ears, fused animal ears, bad animal ears,
poorly drawn animal ears, extra animal ears, liquid animal ears, heavy animal ears, missing animal ears,
bad hairs, poorly drawn hairs, fused hairs, bad face, fused face, poorly drawn face, cloned face, big face,
long face, bad eyes, fused eyes poorly drawn eyes, extra eyes, bad mouth, fused mouth, poorly drawn mouth,
bad tongue, big mouth, bad perspective, bad objects placement
ネガティブプロンプトに、badhand-v4というものがあります。これは指が不自然なものにならないように書くものです。先ほどダウンロードしたエンベディング用ファイルがないとプロンプトが効かないですし、アウトプットに悪影響なので注意しましょう。
このように貼り付けましょう。
ちなみに、これが「badhand ってネガティブプロンプトあるのに手が一向に直らない」と思いながら作った画像です!
プロンプトは一度しっかり目を通して、何を書いているか理解しないとだめですね!
そのほかにも、パラメータを以下のように設定しGenerateをクリックしましょう。
- サンプリング回数(Steps):40
- サンプル方法(Sampler):DPM++ SDE Karras
- シード値(Seed):-1
すると、以下のように画像が作られます。
ちなみに、この画像を作るまで、色々試しました。一発でうまく生成するのは難しいと思います。
私がやったこととしては、以下です。
- シード値を−1のまま、たくさん作る
- ある程度、可愛いものができたら、シード値を固定する。すると、画像の大枠はそのままに、調整ができる
- 調整のために、CFG scale(プロンプトへの誠実さ)やsample stepsを少しずつ変更する
例えば、ネガティブプロンプトが効いておらず目がおかしい画像が出力されたとします。
このような画像を、微調整しようとするのは個人的に難しかったです。
最初から、出来栄えがいいものを整える方が作業効率はいいように感じました。
いい画像が作れるまで、色々試してみましょう!
荒技にはなりますが、時々チェックポイントを変更するのもおすすめです!
偶然いいものができるので、好奇心も大事です。

Coe Fontで話させたい音声を作る
Coe Fontは、「AIひろゆき」で有名なサービスです。

まずは、ログインします。
次に、作品を新規作成をクリック。
様々な音声があるので、使いたい音声を選んで、完了をクリックします。
その後、喋ってもらいたい言葉を入力すると完成します。今回は、「五等分の花嫁」という作品から「あんたを好きって言ったのよ」というセリフをお借りしました。
何もしないでただ入力しただけの音声がこちらです。
デフォルトのままだと嫌だったので、「、」や音程、話すスピードなどを調整し完成。
では、先ほどの画像と音声を合成しましょう。
Sad Talkerで、画像と音声を合成する。
画像と音声の合成には、こちらのOSSを使います。

画像と音声ファイルを入れて、合成をします。
するとこのようにリップシンクした動画が出てきます!
ちなみに、このHugging Face Spaceで作ることもできますが、「Too busy」と出てアプリが動かないこともあります。
そんな時は、以下のレポジトリをクローンしてプログラムを書く方法もあります。
私はLinux環境を使ったので、まずは以下のコマンドを実行しました。
git clone https://github.com/OpenTalker/SadTalker.git
cd SadTalker
conda create -n sadtalker python=3.8
conda activate sadtalker
pip install torch==1.12.1+cu113 torchvision==0.13.1+cu113 torchaudio==0.12.1 --extra-index-url https://download.pytorch.org/whl/cu113
conda install ffmpeg
pip install -r requirements.txt
そのあとは、モデルをダウンロードするために、以下のコマンドを実行しました。
bash scripts/download_models.sh
最後に、Hugging Faceで動かしていたアプリをローカルで動かす場合は、以下のコマンドを実行します。
python app_sadtalker.py
もしくは、コマンドの実行だけで作りたい場合は、以下の文法に沿ったものを実行します。
python3.8 inference.py --driven_audio <audio.wav> \
--source_image <video.mp4 or picture.png> \
--enhancer gfpgan
私は以下のコマンドで試しましたので、よければご参考になさってください。
python3.8 inference.py --driven_audio ./examples/driven_audio/RD_Radio31_000.wav \
--source_image ./examples/source_image/full13.png \
--result_dir ./results --still --preprocess full --enhancer gfpgan
また、Sad talkerの開発元が公開しているGoogle Colabファイルはうまく動きませんでした。
ちゃんと動くGoogle Colabファイルを作って後日共有しますので、お待ちください。
以上で、ハイパーポルノ実行編を終了します。
皆様、ぜひAI彼女を作ってみてください!!

まとめ
ハイパーポルノの概要と、AI彼女の作り方をまとめました。
概要
ハイパーポルノとは、生成AI時代の新しいポルノのことです。
顔や体、声など、自分好みに、AI彼女を作れます。
作り方
使ったサービスは以下の3つです。
- Stable Diffusion
- CoeFont
- Sad Talker
以下の手順で作成しました。
- Civit AIで作りたい画像を探す
- Stable Diffusionで画像生成する
- Coe Fontで話させたい音声を作る
- Sad Talkerで、画像と音声を合成する

【無料】2023年11月版|生成系AIの業務活用なら!
・生成系AIを活用したPoC開発
・生成系AIの業務活用コンサルティング
・システム間API連携

生成系AIの業務活用なら!
・生成系AIを活用したPoC開発
・生成系AIのコンサルティング
・システム間API連携
生成AIツールならOSS利用がおすすめ
じつのところ、巷に溢れるAIツールは以下のリンクにあるようなオープンソースプロジェクトの組み合わせで作られています。(*全て商用可能・無料なものがほとんど)
ツールはその特性上、どうしても限界があります。
個人で使う場合や、業務の一部分のみを効率化する場合であれば問題ありませんが、社内で大規模に活用する場合は、様々な不都合が発生する可能性があります。
以下に、AIサービスを使用した場合とオープンソース利用による自社開発を行った場合の比較表を作成しました。
初期導入コストや50人未満で活用する場合には、AIサービスに利点が多いです。
しかし、長期的にツールを活用する場合や50人以上の会社で活用する場合には、自社開発を行った方がメリットが大きいです。
加えて、カスタマイズ性や技術資産性、セキュリティの依存性という観点からも、OSS利用による自社開発を行うことを推奨しております。
計算シミュレーション | AIサービス | OSS利用による自社開発 |
---|---|---|
初期導入コスト/初期開発費 | ◯ 開発費がかからない。(ただし、初期導入コストが実質開発費以上になるようなケースもある) | △ おおよそ500万以上の場合だと、OSS開発の方が安い |
ランニングコストの費用対効果 | △ 毎月費用が発生する | ◯ 基本無料だが、一部管理保守費による費用発生する場合あり |
一アカウント当たりの費用対効果 | △ 1アカウント当たりの月額課金がかかる | ◎ 自社クラウドサーバーによる運用 |
ワークフローの見直し(ツールにワークフローを合わせなくてはいけない) | × | ◎ |
カスタマイズ性 | × サービスを開発した機能しか使えない | ◎ 完全オーダーメイド |
技術資産性 | × これから企業価値のキモとなってくるIT技術を外部に依存する | ◎ 技術資産をアウトソースしないことで、企業価値が上がる |
セキュリティの依存性 | × ツール開発会社に依存する | ◎ 自社に特化したセキュリティ対策が可能 |
50人未満の場合(年間あたりの費用対効果) | ◎ | △ |
50人以上の場合(年間あたりの費用対効果) | ◯ | ◯ |
100人以上の場合(年間あたりの費用対効果) | △ | ◎ |
300人以上の場合((年間あたりの費用対効果) | × | ◎ |
1000人以上の場合(年間あたりの費用対効果) | × | ◎ |
弊社WEELは国内最速で生成AI関係のオープンソースプロジェクト(OSS)を記事化し、月間130万PVを超えました。
生成AI業界は、成長スピードが爆発的であり、それらに日々伴走できるエンジニアコミッターが管理・バージョンアップするOSSの利用・活用・連携が欠かせません。国内ベンダーが作りがちのOSSを積極利用しないAIツールは、すぐに形骸化し、費用対効果が合わなくなるでしょう。
生成AIサービスを利用・開発する場合はOSSの知見が肝。
弊社では「もしもAIサービスを作るなら、どんなオープンソースの組み合わせで開発できるだろう?」という疑問にベストアンサーを提供できます。ぜひお問い合わせください。
➡︎費用対効果の高い生成AIサービスの開発について相談をしてみる。
最後に
弊社は生成系AI特化の事業になるまでは、法人向けシステムの開発・連携・自動化・機能比較等々。
エンジニア目線によるシステム検討・導入支援を行ってきました。
そこで、明らかに高すぎる「ボッタクリ」とも呼べるような業者や、システムに何度も遭遇してきました。
弊社は透明性に特に力を入れており、弊社のノウハウや開発料金などを公開しています。
今まで100社以上の実績がある、SaaS間API連携の経験からシステム・ツール選びには強みがあります。
生成AIサービスの比較、一番いいのを教えてくれ!という方はぜひご連絡を。
また、自社開発と既存のAIサービスの導入で悩んでいる、などなどの場合もご対応しています!
➡︎生成AIサービスの比較、AIサービスの導入について相談をしてみる。

「生成AIを社内で活用したい」「生成AIの事業をやっていきたい」という方に向けて、朝の通勤時間に読めるメルマガを配信しています。
最新のAI情報を日本最速で受け取りたい方は、以下からご登録ください。
また、弊社紹介資料もご用意しておりますので、併せてご確認ください。