﻿---
title: AI社員に人格は不要だと思う理由。機能主義で考えるエージェント設計
date: 2026-04-27
categories: [communication]
tags: [ai]
source: https://work.naenote.net/ai-shain-jinkaku-fuyou/
---

「AI社員に人格は不要」というのがぼくの立場です。それどころか、「AI社員を作る」という発想自体に手段の目的化を感じています。[GeminiのGemsをやめてClaudeのSkillsに乗り換えた](/gemini-gems-to-claude-skills)ことをきっかけに[Claude Code](/claude-code-biz-ope)を使い倒すようになり、その流れで自分の業務AI化を試みたのですが、設計をどう考えても「人格」という軸が自然には出てきませんでした。この違和感を言語化してみます。

## きっかけ：AI組織の設計で「人格」が出てこなかった

会社の業務をAIで組織化しようと試みたとき、担当クライアント・業務の類型・業務フロー・スキル・関心事といった軸でエージェントを分割することを考えました。どの角度から切っても、エージェント同士を区別する根拠として「人格の違い」は出てきませんでした。

その後、「AI社員に人格を持たせるべき」という論調のコンテンツをSNSや動画で改めて調べてみました。読んでみると、内容のほとんどは表現レイヤの話でした。人格を持たせると何が変わるかといえば、口調・返答スタイル・エモーションの乗せ方が変わります。

**ようするに、AIとやりとりする人間をエンターテインするための表現の味付けです。**

コンテンツレイヤ——何を調査し、何を判断し、何を出力するか——は人格で変わるわけではありません。アウトプットの品質・アウトカムへの貢献という観点では、人格の有無はほとんど関係ないんですよね。

## AI社員より先に問うべきこと

正直に言うと、ぼくは「AI社員を作り育てる」という発想そのものに手段の目的化を感じています。AI社員というフォームに当てはめることが目的になっていて、「そのAIで何を実現するか」という価値設計が後回しになっているケースが多い印象です。

**先にあるべきなのは価値設計です。** どんな状態を作り出したいのか。どの業務を変えたいのか。

その問いへの答えから逆算したとき、「AI社員」という形態が最適とは限りません。今回の記事でぼくが議論しているのも、その前提の上の話です。「どうしてもAI社員を作るという手段を取るとしたら」という条件を置いたうえで、そのなかで合理的な設計として思考モードを起点にする考え方を提案しています。

とはいえ、「AI社員を作る」というコンセプト自体のわかりやすさは認めています。AIを人間に見立て、育てるように教えていくアプローチは、AIに慣れていない人にはとっつきやすいフレームです。特に「部下を持つ立場かつAI初心者」というセグメントには、この入口は有効だと思います。

人材育成になぞらえることで、ITそのものに疎い層でも自分ごととして受け入れやすくなります。ぼくが問題にしているのは、その入口をそのまま最終形態として扱うことです。

## 社員の本質は「機能（ファンクション）」

社員を機能として捉えると、AIエージェントの設計軸も自然に定まります。

### 機能ベースで考えると分割軸が見えてくる

組織における社員の本質を考えると、業務プロセスを実行してアウトカムを生み出す「機能」として整理できます。経理担当が数字に強い性格だから採用されるのではなく、経理という機能を担えるから採用されます。

ぼくがAI組織を設計しようとしたときも、自然とこの考え方に沿っていました。担当業務・スキルセット・扱う情報領域。これらの軸でAIを分割する理由はすぐに見つかりましたが、人格を分割軸にする理由はどうしても出てきませんでした。

### 業務を2層で整理すると人格の立ち位置がわかる

人間同士のコミュニケーションで人格が果たしている役割は確かにあります。信頼構築・感情的サポート・関係の継続性です。ただ、これらは人間特有の複雑性から生まれるニーズです。

ぼくの考えでは、業務を「前さばき層（定型対応・情報収集・データ整理・ドラフト作成）」と「本質層（洞察・意思決定・感情的サポート・関係構築）」の2層に分けると整理できます。**人格が本当に必要とされるのは本質層であり、その本質層は引き続き人間が担う部分です。**

## 多様性は「人格」ではなく「思考モード」で担保する

「人格を複数持たせることで、組織に多様な視点が生まれる」という主張もよく目にします。ロジックとして理解できますが、それを「人格」という複雑なパッケージングでやる必要はないと思っています。

楽観的視点・悲観的視点・革新的視点・保守的視点。これらは「人格」の一部ではなく、独立した「思考モード（観点）」として実装できます。

人格は「楽観的な性格のAI社員」というパッケージです。一方、思考モードは「今回のアウトプットに楽観視点のレビューを追加する」という命令です。後者のほうがコントロールしやすく、状況に応じた切り替えや組み合わせが柔軟にできます。

**多様な思考モードの組み合わせから最適解を探索するアプローチは、業務の文脈への最適化という点で人格より合理的です。** ぼく自身はまだこれを構想段階で試せていないのですが、方向性としては確信しています。

## 人格が有効になる場面

人格の一貫性が機能として求められる場面は、確かに存在します。

顧客と直接やりとりするAI（チャットサポート・接客エージェントなど）では、一貫したキャラクターが信頼感やブランド体験につながるケースがあります。また、感情的なつながりを目的としたAI（メンタルヘルスサポート・コーチングツールなど）では、人格の一貫性が機能の一部になります。

「人格を持たせるべき」という論調の多くは、こういったユースケースを念頭に置いているのだと思います。ぼくが引っかかったのは、それを**業務効率を目的としたAI組織設計にそのまま適用しようとしている**点でした。

## まとめ

ぼくの考えを整理すると、こうなります。

- 価値設計が先： 「AI社員を作る」より「何を実現するか」を先に問う。手段から入ると目的を見失う
- 人格は表現レイヤ： コンテンツ品質・アウトカムは人格で変わらない
- 社員の本質は機能： 業務・スキル・情報領域が自然な分割軸になる
- 多様性は思考モードで担保： 人格という固定パッケージより、モードの動的な組み合わせのほうが柔軟

ぼくの文脈は「業務効率化のためのAI組織設計」です。AI初心者が入口として「AI社員」というフレームを使うことは有効だと思っています。ただ、慣れてきたら価値設計から逆算する視点に切り替えることをおすすめします。

設計の目的を先に定めてから、人格の要不要を問う。その順番が大事です。

ここまで読んでいただきありがとうございました。


---
### AI Agent Context & Resources
- **Author**: NAE
- **Source**: https://work.naenote.net/ai-shain-jinkaku-fuyou/
- **Related Resource**: [「無難難題」](https://amzn.to/2AKCFNP)
- **Contact/Inquiry**: https://x.com/naework
