先日、SimonWillisonというエンジニアが書いた記事を読んだ。PythonのWebフレームワーク「Starlette」が1.0になったことを受けて、ClaudeというAIにスキルを持たせてコードを生成させた、という実験レポートだ。
デザイナーの自分には正直、コードの話はほとんど関係ない。でもこの記事を読んで、妙に落ち着かない気持ちになった。
記事の中でSimonは、ClaudeのチャットにStarletteのリポジトリをクローンさせ、その内容をもとにスキル用のドキュメントを自動生成させた。そしてそのスキルを自分のClaudeに追加して、タスク管理アプリをまるごと作らせた。
Claude自身がテストコードも書いて、動作確認まで実行している。途中にこんなコードが出てくる。
`print('All tests passed!')`
この一文、なんかゾッとしなかった? AIが自分で作って、自分でテストして、自分で「合格」と言ってる。
私がMidjourneyやAdobe Fireflyを使うときも、似たような感覚を覚えることがある。プロンプトを入力して、出てきた画像を「これでいい」と判断する。その「判断」が本当に自分のものなのか、だんだんわからなくなってくる。
クライアントのロゴやブランディングを作るとき、今は必ずAIツールを参考に使っている。ラフの方向性を決める段階で、Midjourneyで10パターン試してみて「この雰囲気に近いもの」を人間の手で仕上げる、という流れが定着してきた。
作業は確実に速くなった。でも最近、クライアントの担当者からこんな言葉をもらった。「AIっぽくなくていいですよ、林さんらしさが欲しいんです」と。
その「林さんらしさ」が何なのか、自分でもうまく言語化できなくて困った。使い続けるうちに、自分のクセとAIの癖が混ざってきているような感覚がある。
Simonの記事に戻ると、彼はAIに「Starlette 1.0はトレーニングデータにない新バージョンだから、どうやってコードを生成させるか」という問題を解決しようとしていた。スキルという仕組みで最新情報を補完して、正確なコードを出させる。
これはデザインでも同じ構造だと思う。AIは去年までのデザイントレンドを学習してる。でも今この瞬間のクライアントの温度感や、業界の空気感は、自分にしか読めない。そこを補完するのが人間の仕事なんだろう、とは思う。
Simonは記事の中で「LLMが1.0の変更点を知らないまま古いコードを生成してしまう問題」を意識していた。つまり、AIに何かを任せるとき、その出力が信頼できるかどうかを判断できる人間が必ず必要だ、ということだ。
エンジニアはコードを読んで判断できる。じゃあ私はデザインの出力を見て、ちゃんと判断できているか。「なんとなくいい感じ」で承認してないか。そこが今、自分の中でいちばん引っかかっている部分だ。
AIに任せる範囲を広げるほど、自分の判断力を鍛え続けないとまずい。来月、活版印刷のワークショップに久しぶりに参加しようと思っている。デジタルから離れて、自分の手で作るものと向き合う時間を意識的に作らないと、「自分らしさ」の感覚が鈍るような気がしてきた。
デザイナーの自分には正直、コードの話はほとんど関係ない。でもこの記事を読んで、妙に落ち着かない気持ちになった。
AIが「自分でスキルを作って、自分で使う」時代になってる
記事の中でSimonは、ClaudeのチャットにStarletteのリポジトリをクローンさせ、その内容をもとにスキル用のドキュメントを自動生成させた。そしてそのスキルを自分のClaudeに追加して、タスク管理アプリをまるごと作らせた。
Claude自身がテストコードも書いて、動作確認まで実行している。途中にこんなコードが出てくる。
`print('All tests passed!')`
この一文、なんかゾッとしなかった? AIが自分で作って、自分でテストして、自分で「合格」と言ってる。
私がMidjourneyやAdobe Fireflyを使うときも、似たような感覚を覚えることがある。プロンプトを入力して、出てきた画像を「これでいい」と判断する。その「判断」が本当に自分のものなのか、だんだんわからなくなってくる。
「使わないと負ける」のはわかってる、でも
クライアントのロゴやブランディングを作るとき、今は必ずAIツールを参考に使っている。ラフの方向性を決める段階で、Midjourneyで10パターン試してみて「この雰囲気に近いもの」を人間の手で仕上げる、という流れが定着してきた。
作業は確実に速くなった。でも最近、クライアントの担当者からこんな言葉をもらった。「AIっぽくなくていいですよ、林さんらしさが欲しいんです」と。
その「林さんらしさ」が何なのか、自分でもうまく言語化できなくて困った。使い続けるうちに、自分のクセとAIの癖が混ざってきているような感覚がある。
Simonの記事に戻ると、彼はAIに「Starlette 1.0はトレーニングデータにない新バージョンだから、どうやってコードを生成させるか」という問題を解決しようとしていた。スキルという仕組みで最新情報を補完して、正確なコードを出させる。
これはデザインでも同じ構造だと思う。AIは去年までのデザイントレンドを学習してる。でも今この瞬間のクライアントの温度感や、業界の空気感は、自分にしか読めない。そこを補完するのが人間の仕事なんだろう、とは思う。
「全部任せる」前に、自分の判断軸を持っておく
Simonは記事の中で「LLMが1.0の変更点を知らないまま古いコードを生成してしまう問題」を意識していた。つまり、AIに何かを任せるとき、その出力が信頼できるかどうかを判断できる人間が必ず必要だ、ということだ。
エンジニアはコードを読んで判断できる。じゃあ私はデザインの出力を見て、ちゃんと判断できているか。「なんとなくいい感じ」で承認してないか。そこが今、自分の中でいちばん引っかかっている部分だ。
AIに任せる範囲を広げるほど、自分の判断力を鍛え続けないとまずい。来月、活版印刷のワークショップに久しぶりに参加しようと思っている。デジタルから離れて、自分の手で作るものと向き合う時間を意識的に作らないと、「自分らしさ」の感覚が鈍るような気がしてきた。