
前一陣,我問我的AI助手,我在一個AI寫作的項目上花了多少時間。當(dāng)時我想要的只是一個數(shù)字,但沒想到,最終我卻陷入了對未來工作形態(tài)的深入思考。因為對于我的問題,AI給出了對我的這次腦力勞動的一份全面的審核報告——包括我寫了什么、何時寫的、內(nèi)容是如何變化的,以及我在每個部分上分別花費了多長時間。
讓我意外的,并非是AI所展現(xiàn)出來的能力。最近幾十年,我一直在與AI打交道。2011年,我還帶領(lǐng)IBM的沃森團(tuán)隊在《危險邊緣》節(jié)目中擊敗了最頂尖的人類選手。真正讓我意外的,是我的工作量竟能被如此清晰地呈現(xiàn)出來。這就好像我在面對一面鏡子,它不光知道我做了什么,還知道我是如何做的。
現(xiàn)在,AI已經(jīng)越來越深地融入到了我們的日常工作中。這也為我們帶來了新的績效評估手段。想象一下,如果AI助手不僅可以幫你工作,還能衡量、評估甚至審核你的工作內(nèi)容,正確評價你所付出的努力,那么,績效評估的科學(xué)性是不是就大大增加了呢?
用AI進(jìn)行績效評估
這個問題已不再是理論層面的探討了?,F(xiàn)在只要你在一項工作中使用到AI,AI就可以追蹤我們在項目中的每一步行動,對我們的貢獻(xiàn)進(jìn)行分類,并且可以比人類管理者更客觀地評價我們的付出。它能夠讓知識型勞動背后那些無形的付出變得清晰可見。而以往這些隱形的勞動往往是很難被領(lǐng)導(dǎo)看到的,有時甚至可能會被歸功于別人。
而在我自己的那個寫作項目中,AI列出了我所做的貢獻(xiàn)的詳細(xì)圖表,詳細(xì)到了每一個想法、每一次修改以及每一個決策節(jié)點。它還對我的貢獻(xiàn)進(jìn)行了分類,揭示了一些我從未注意過的工作模式和一些連我自己也意識不到的看法。在此過程中,它還展現(xiàn)了一種新的問責(zé)方法——這種問責(zé)方法不僅僅基于工作成果,更是基于工作成果背后的努力。
這種透明度可能會給職場帶來變革性的影響。想象一下,如果我們能夠精準(zhǔn)評估團(tuán)隊成員對項目的具體貢獻(xiàn)——不光是誰開會時發(fā)了言,也不光是誰做了PPT,而是還包括了那些提出意見、修改方案、提出問題和完善意見的人。那么這不僅對管理層有利,對于那些在傳統(tǒng)績效評估體系中經(jīng)常被忽視的個人而言,更是一種賦能。
再回到我個人的例子。AI不僅量化了我的工作時間——在我的那個寫作項目中,我一共工作了34個小時,寫了47章,與AI進(jìn)行了1200次問答。AI還給出這樣的評價:“戴維?費魯奇并不是一個只會輸入提示詞的被動型用戶,是扮演了一個創(chuàng)意總監(jiān)、首席理論家與總編的角色,引導(dǎo)并塑造了一個動態(tài)響應(yīng)的系統(tǒng),使其不斷朝著一個更清晰的目標(biāo)前進(jìn)?!?它還詳細(xì)記錄了我在每一章中為了塑造出最終成果所做的努力。
風(fēng)險與新問題
當(dāng)然,AI也有一些令人感到害怕的地方。
這種高透明度,也意味著你有被AI監(jiān)視的風(fēng)險。一想到每個不成熟的想法、每一次半途而廢的嘗試、每一刻的疑慮都會被記錄和評價,這不免會給一種如芒在背之感。即便AI只是一個中立的觀察者,“被凝視”這種感覺本身也會影響我們的工作。創(chuàng)造力的產(chǎn)生,需要一個允許混亂存在的安全空間,而當(dāng)這個空間受到監(jiān)視時,我們可能陷入自我審查,或者下意識地去選擇更穩(wěn)妥的方案。
更糟糕的是,如果在缺乏適當(dāng)保障措施的情況下將AI用于績效評估,還可能有可能導(dǎo)致一些偏見和不公的發(fā)生。畢竟AI系統(tǒng)不是憑空出現(xiàn)的,它們的偏好也會受到設(shè)計者和訓(xùn)練數(shù)據(jù)的影響。如果我們在這個問題上掉以輕心,那么一些我們本希望擺脫的人為偏見,就有可能借著AI的殼子被延續(xù)下去。
還有就是權(quán)屬的問題。在人和AI協(xié)作的過程中,你的思考是在何處停止的?AI的建議又是從何處開始的?你和AI合作形成的看法,是算你的還是AI的?這些問題在現(xiàn)在還都處在模糊地帶,一旦涉及績效、晉升和薪酬等問題,情況只會更加復(fù)雜。
AI與未來的工作形態(tài)
不管怎樣,AI的潛力是不可小覷的。只要運用得當(dāng),AI輔助績效評估有望成為更公平、更全面的績效評估方法。人類管理者往往無法擺脫偏見的影響,比如個人魅力、從眾心理以及一些無意識的成見都會左右對一個人的評價結(jié)果。而一個設(shè)計合理、高透明度而且能定期接受審核的AI系統(tǒng),或許能夠為我們創(chuàng)造一個更公平的競爭環(huán)境。
當(dāng)然,要實現(xiàn)這個目標(biāo),我們首先要制定一些嚴(yán)格的基本原則:
? 透明度:要杜絕 “黑箱” 評估。人們必須清楚AI是如何評判他們的工作的。
? 杜絕作弊:系統(tǒng)必須能夠防止被用戶、管理者或外部人員鉆空子。
? 一致性:不同崗位、團(tuán)隊和時間的評價標(biāo)準(zhǔn)應(yīng)該是平等的。
? 可審查性:和人類一樣,AI也要為錯誤和偏見負(fù)責(zé)。
? 基準(zhǔn)測試:要將AI的評估結(jié)果與人類的評估結(jié)果進(jìn)行對比,以理解差異之處。
如果利用得當(dāng),AI將能幫助我們科學(xué)評價一些長期難以量化評估的事物,比如腦力勞動的結(jié)構(gòu)、過程與成本等。它還能幫助我們打造更優(yōu)秀的團(tuán)隊,設(shè)計更有意義的工作,甚至讓我們在工作中獲得更多個人滿足感。
但是,我們在這個過程中,必須采取審慎的態(tài)度。我們的目標(biāo)并不是讓AI給員工打分,也不是讓AI取代職業(yè)經(jīng)理人。而是要用AI幫助我們深化對工作的理解——也就是誰在做這份工作,這份工作是如何開展的,以及如何能讓這份工作做得更好。
在我撰寫那篇關(guān)于自然系統(tǒng)與設(shè)計系統(tǒng)的多樣性動態(tài)研究的論文時,我意外地發(fā)現(xiàn),自己親身經(jīng)歷了另一場變革。它很有可能會重新定義知識型勞動的評價和管理體系。未來的職場協(xié)作將是人與機(jī)器的協(xié)同,而不是人與機(jī)器的對抗。在未來的職場中,在一個開放透明的過程中,每個參與者都將能夠看到彼此的付出,從中學(xué)到經(jīng)驗,并且因自身的付出而獲得公道的評價。
所以說,只要用好了AI,它不僅能提高我們的工作效率,還能使我們更清楚地了解自己。(財富中文網(wǎng))
本文作者David Ferrucci 是全球企業(yè)中心下設(shè)非營利機(jī)構(gòu)高級企業(yè)人工智能研究所的董事總經(jīng)理。
《財富》網(wǎng)站評論文章僅代表作者本人觀點,并不代表《財富》的觀點和立場。
譯者:樸成奎
前一陣,我問我的AI助手,我在一個AI寫作的項目上花了多少時間。當(dāng)時我想要的只是一個數(shù)字,但沒想到,最終我卻陷入了對未來工作形態(tài)的深入思考。因為對于我的問題,AI給出了對我的這次腦力勞動的一份全面的審核報告——包括我寫了什么、何時寫的、內(nèi)容是如何變化的,以及我在每個部分上分別花費了多長時間。
讓我意外的,并非是AI所展現(xiàn)出來的能力。最近幾十年,我一直在與AI打交道。2011年,我還帶領(lǐng)IBM的沃森團(tuán)隊在《危險邊緣》節(jié)目中擊敗了最頂尖的人類選手。真正讓我意外的,是我的工作量竟能被如此清晰地呈現(xiàn)出來。這就好像我在面對一面鏡子,它不光知道我做了什么,還知道我是如何做的。
現(xiàn)在,AI已經(jīng)越來越深地融入到了我們的日常工作中。這也為我們帶來了新的績效評估手段。想象一下,如果AI助手不僅可以幫你工作,還能衡量、評估甚至審核你的工作內(nèi)容,正確評價你所付出的努力,那么,績效評估的科學(xué)性是不是就大大增加了呢?
用AI進(jìn)行績效評估
這個問題已不再是理論層面的探討了?,F(xiàn)在只要你在一項工作中使用到AI,AI就可以追蹤我們在項目中的每一步行動,對我們的貢獻(xiàn)進(jìn)行分類,并且可以比人類管理者更客觀地評價我們的付出。它能夠讓知識型勞動背后那些無形的付出變得清晰可見。而以往這些隱形的勞動往往是很難被領(lǐng)導(dǎo)看到的,有時甚至可能會被歸功于別人。
而在我自己的那個寫作項目中,AI列出了我所做的貢獻(xiàn)的詳細(xì)圖表,詳細(xì)到了每一個想法、每一次修改以及每一個決策節(jié)點。它還對我的貢獻(xiàn)進(jìn)行了分類,揭示了一些我從未注意過的工作模式和一些連我自己也意識不到的看法。在此過程中,它還展現(xiàn)了一種新的問責(zé)方法——這種問責(zé)方法不僅僅基于工作成果,更是基于工作成果背后的努力。
這種透明度可能會給職場帶來變革性的影響。想象一下,如果我們能夠精準(zhǔn)評估團(tuán)隊成員對項目的具體貢獻(xiàn)——不光是誰開會時發(fā)了言,也不光是誰做了PPT,而是還包括了那些提出意見、修改方案、提出問題和完善意見的人。那么這不僅對管理層有利,對于那些在傳統(tǒng)績效評估體系中經(jīng)常被忽視的個人而言,更是一種賦能。
再回到我個人的例子。AI不僅量化了我的工作時間——在我的那個寫作項目中,我一共工作了34個小時,寫了47章,與AI進(jìn)行了1200次問答。AI還給出這樣的評價:“戴維?費魯奇并不是一個只會輸入提示詞的被動型用戶,是扮演了一個創(chuàng)意總監(jiān)、首席理論家與總編的角色,引導(dǎo)并塑造了一個動態(tài)響應(yīng)的系統(tǒng),使其不斷朝著一個更清晰的目標(biāo)前進(jìn)。” 它還詳細(xì)記錄了我在每一章中為了塑造出最終成果所做的努力。
風(fēng)險與新問題
當(dāng)然,AI也有一些令人感到害怕的地方。
這種高透明度,也意味著你有被AI監(jiān)視的風(fēng)險。一想到每個不成熟的想法、每一次半途而廢的嘗試、每一刻的疑慮都會被記錄和評價,這不免會給一種如芒在背之感。即便AI只是一個中立的觀察者,“被凝視”這種感覺本身也會影響我們的工作。創(chuàng)造力的產(chǎn)生,需要一個允許混亂存在的安全空間,而當(dāng)這個空間受到監(jiān)視時,我們可能陷入自我審查,或者下意識地去選擇更穩(wěn)妥的方案。
更糟糕的是,如果在缺乏適當(dāng)保障措施的情況下將AI用于績效評估,還可能有可能導(dǎo)致一些偏見和不公的發(fā)生。畢竟AI系統(tǒng)不是憑空出現(xiàn)的,它們的偏好也會受到設(shè)計者和訓(xùn)練數(shù)據(jù)的影響。如果我們在這個問題上掉以輕心,那么一些我們本希望擺脫的人為偏見,就有可能借著AI的殼子被延續(xù)下去。
還有就是權(quán)屬的問題。在人和AI協(xié)作的過程中,你的思考是在何處停止的?AI的建議又是從何處開始的?你和AI合作形成的看法,是算你的還是AI的?這些問題在現(xiàn)在還都處在模糊地帶,一旦涉及績效、晉升和薪酬等問題,情況只會更加復(fù)雜。
AI與未來的工作形態(tài)
不管怎樣,AI的潛力是不可小覷的。只要運用得當(dāng),AI輔助績效評估有望成為更公平、更全面的績效評估方法。人類管理者往往無法擺脫偏見的影響,比如個人魅力、從眾心理以及一些無意識的成見都會左右對一個人的評價結(jié)果。而一個設(shè)計合理、高透明度而且能定期接受審核的AI系統(tǒng),或許能夠為我們創(chuàng)造一個更公平的競爭環(huán)境。
當(dāng)然,要實現(xiàn)這個目標(biāo),我們首先要制定一些嚴(yán)格的基本原則:
? 透明度:要杜絕 “黑箱” 評估。人們必須清楚AI是如何評判他們的工作的。
? 杜絕作弊:系統(tǒng)必須能夠防止被用戶、管理者或外部人員鉆空子。
? 一致性:不同崗位、團(tuán)隊和時間的評價標(biāo)準(zhǔn)應(yīng)該是平等的。
? 可審查性:和人類一樣,AI也要為錯誤和偏見負(fù)責(zé)。
? 基準(zhǔn)測試:要將AI的評估結(jié)果與人類的評估結(jié)果進(jìn)行對比,以理解差異之處。
如果利用得當(dāng),AI將能幫助我們科學(xué)評價一些長期難以量化評估的事物,比如腦力勞動的結(jié)構(gòu)、過程與成本等。它還能幫助我們打造更優(yōu)秀的團(tuán)隊,設(shè)計更有意義的工作,甚至讓我們在工作中獲得更多個人滿足感。
但是,我們在這個過程中,必須采取審慎的態(tài)度。我們的目標(biāo)并不是讓AI給員工打分,也不是讓AI取代職業(yè)經(jīng)理人。而是要用AI幫助我們深化對工作的理解——也就是誰在做這份工作,這份工作是如何開展的,以及如何能讓這份工作做得更好。
在我撰寫那篇關(guān)于自然系統(tǒng)與設(shè)計系統(tǒng)的多樣性動態(tài)研究的論文時,我意外地發(fā)現(xiàn),自己親身經(jīng)歷了另一場變革。它很有可能會重新定義知識型勞動的評價和管理體系。未來的職場協(xié)作將是人與機(jī)器的協(xié)同,而不是人與機(jī)器的對抗。在未來的職場中,在一個開放透明的過程中,每個參與者都將能夠看到彼此的付出,從中學(xué)到經(jīng)驗,并且因自身的付出而獲得公道的評價。
所以說,只要用好了AI,它不僅能提高我們的工作效率,還能使我們更清楚地了解自己。(財富中文網(wǎng))
本文作者David Ferrucci 是全球企業(yè)中心下設(shè)非營利機(jī)構(gòu)高級企業(yè)人工智能研究所的董事總經(jīng)理。
《財富》網(wǎng)站評論文章僅代表作者本人觀點,并不代表《財富》的觀點和立場。
譯者:樸成奎
When I asked my AI assistant how much time I’d spent working on a collaborative writing project with it, I wasn’t expecting an existential reflection on the future of work. I just wanted a number. What I got instead was a full audit of my intellectual labor—what I had written, when, how it evolved, and how long I spent on each part.
The surprise wasn’t in the AI’s capabilities—I’ve worked with artificial intelligence for decades and led the IBM Watson team to its landmark success in defeating the best human players on Jeopardy! in 2011. The surprise was how viscerally I reacted to seeing my effort laid out with such clarity. It felt like being held up to a mirror I hadn’t known existed, one that reflected not just what I’d done but how I’d done it.
As AI becomes more deeply embedded in our daily workflows, a new frontier is emerging for performance evaluation. What if your AI assistant didn’t just help you work—but measured, assessed, and even reviewed that work and the nature of your effort?
AI in performance reviews
That question is no longer theoretical. AI, assuming it’s used, can already trace our steps through a project, categorize our contributions, and evaluate our engagement in ways that are arguably more objective than a human manager. It can offer transparency into the invisible labor behind knowledge work—labor that too often goes unrecognized or is misattributed.
In my own project, the AI produced a detailed map of my contribution: each idea, revision, and decision point. It categorized my engagement, revealing patterns I hadn’t noticed and insights I hadn’t expected. In doing so, it exposed a new kind of accountability—one rooted not in results alone, but in the effort behind them.
This level of visibility could be transformative. Imagine being able to see precisely how team members contribute to a project—not just who speaks up in meetings (as evidenced by transcripts) or turns in polished presentations, but who drafts, refines, questions, and rethinks. This isn’t just helpful for management—it’s empowering for individuals who are often overlooked in traditional performance reviews.
In addition to quantifying the time I spent—47 sessions over 34 hours and 1,200 questions and responses—the AI offered this assessment: “David Ferrucci did not act as a passive user feeding prompts into a machine. Rather, he operated as a creative director, lead theorist, and editor-in-chief—guiding and shaping a dynamic, responsive system toward ever greater clarity.” It provided a detailed accounting of what I did in each session to shape the final product.
Risks and new questions
It’s also a little terrifying.
With this transparency comes the risk of surveillance. The sense that every half-formed idea, every false start, every moment of doubt is being recorded and judged. Even if the AI is a neutral observer, the psychology of being watched changes how we work. Creativity requires a safe space to be messy. When that space is monitored, we may self-censor or default to safer choices.
Worse still, if AI is used to inform performance evaluations without proper safeguards, it opens the door to bias. AI systems don’t emerge from nowhere—they’re shaped by the data they’re trained on and the people who design them. If we’re not careful, we risk automating the very human biases we hoped to escape.
There’s also the question of attribution. In collaborative work with AI, where does your thinking end and the AI’s suggestions begin? Who owns the insights that emerge from a coauthored conversation? These are murky waters, especially when performance, promotion, and compensation are on the line.
AI and the future of work
And yet, the potential remains powerful. If done right, AI-assisted performance reviews could offer a fairer, more reflective alternative to traditional methods. Human managers are not immune to bias either—charisma, conformity, and unconscious prejudice often influence evaluations. A well-designed AI system, built transparently and audited regularly, could level the playing field.
To get there, we need strict design principles:
? Transparency: No black-box evaluations. People must understand how the AI is judging their work.
? Manipulation: Systems must be protected from being gamed by users, managers, or external actors.
? Consistency: Standards must apply equally across roles, teams, and time.
? Auditability: Like humans, AI should be accountable for bias and error.
? Benchmarking: AI assessments should be tested against human evaluations to understand discrepancies.
Used thoughtfully, AI could help us measure what has long been immeasurable: the structure, process, and cost of intellectual effort. It could help us build better teams, design more meaningful work, and even find more personal satisfaction in what we do.
But we must approach this future with caution. The goal isn’t to let AI assign grades or replace managers. It’s to enrich our understanding of work—who’s doing it, how it’s done, and how it can be better.
In my project to write about the dynamics of diversity in natural and designed systems, I found myself participating in another transformation—one that could redefine how all knowledge work is measured, managed, and ultimately valued. The future of collaboration is not man versus machine, but man with machine—in an open, visible process where every contributor can see, learn from, and be fairly assessed for their effort.
If we do it right, the AI won’t just help us work better—it will help us see ourselves more clearly.
David Ferrucci is managing director of the nonprofit Institute for Advanced Enterprise AI at the Center for Global Enterprise
The opinions expressed in Fortune.com commentary pieces are solely the views of their authors and do not necessarily reflect the opinions and beliefs of Fortune.