亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

首頁 科技週邊 人工智慧 你知道程式設(shè)計(jì)師再過幾年會沒落?

你知道程式設(shè)計(jì)師再過幾年會沒落?

Nov 08, 2023 am 11:17 AM
gpt-4 神經(jīng)網(wǎng)路 智慧

《Computer World》雜誌曾經(jīng)寫過一篇文章,說“程式設(shè)計(jì)到1960年就會消失”,因?yàn)镮BM開發(fā)了一種新語言FORTRAN,這種新語言可以讓工程師寫出他們所需的數(shù)學(xué)公式,然後提交給電腦運(yùn)行,所以程式設(shè)計(jì)就會終結(jié)。

你知道程式設(shè)計(jì)師再過幾年會沒落?圖片

#又過了幾年,我們聽到了一個(gè)新說法:任何業(yè)務(wù)人員都可以使用業(yè)務(wù)術(shù)語來描述自己的問題,告訴電腦要做什麼,使用這種叫做COBOL的程式語言,公司不再需要程式設(shè)計(jì)師了。

後來,據(jù)說IBM開發(fā)出了一門名為RPG的新程式語言,可以讓員工填寫表格並產(chǎn)生報(bào)告,因此大部分企業(yè)的程式需求都可以透過它來完成

你知道程式設(shè)計(jì)師再過幾年會沒落?圖片

#在80年代和90年代,隨著組件和圖形化開發(fā)的出現(xiàn),業(yè)務(wù)人員可以透過拖曳的方式輕鬆地開發(fā)出程式

進(jìn)入二十一世紀(jì),又出現(xiàn)了Low Code, No Code,既然都沒有程式碼了,那就更不需要程式設(shè)計(jì)師了。

事實(shí)真相是怎麼樣的呢?

程式設(shè)計(jì)並沒有被終結(jié),相反,門檻不斷降低,導(dǎo)致程式設(shè)計(jì)師數(shù)量越來越多

現(xiàn)在終極大Boss——大模型-來了,它和之前的新技術(shù),新語言都不同,不用人去寫程式碼,而是直接產(chǎn)生程式碼。?

它能否終結(jié)編程,淘汰程式設(shè)計(jì)師呢?

首先,我們必須承認(rèn),業(yè)界頂尖的AIGC工具,如GPT-4,現(xiàn)在已經(jīng)具備了非常強(qiáng)大的程式碼產(chǎn)生能力。如果您還對此持有異議,歡迎閱讀我之前寫的幾篇文章,《AI可以生成95%的代碼》

網(wǎng)上也有人用GPT-4,Midjourney, DALL·E 3 產(chǎn)生了一個(gè)類似憤怒的小鳥這樣的遊戲:“Angry Pumpkins”,效果讓人驚嘆!

然而,AIGC產(chǎn)生的程式碼並不能完全保證無懈可擊,也無法保證其準(zhǔn)確性,因此程式設(shè)計(jì)師需要進(jìn)行檢查和調(diào)試,並在發(fā)現(xiàn)問題後引導(dǎo)其進(jìn)行修改,這是一件相當(dāng)繁瑣的工作

熟練GPT-4這類工具可以讓程式設(shè)計(jì)師成為超級個(gè)體

很多人沒有意識到的是,寫程式碼只是軟體開發(fā)的一個(gè)環(huán)節(jié)。在寫程式碼之前,還有需求分析和設(shè)計(jì)(包括架構(gòu)設(shè)計(jì)和詳細(xì)設(shè)計(jì))需要完成

AIGC在詳細(xì)設(shè)計(jì)方面取得了顯著進(jìn)展,但在架構(gòu)設(shè)計(jì)方面仍有待提升。您可以閱讀《AI開始威脅程式設(shè)計(jì)師的核心能力了! 》一文來了解具體案例

隨著AIGC的快速迭代,在5~10年內(nèi),也許能出現(xiàn)有著強(qiáng)大設(shè)計(jì)能力和程式碼產(chǎn)生能力的AI,但是AIGC很難翻越最後一座大山:需求分析。

了解客戶的需求是一項(xiàng)困難的任務(wù)。你需要熟悉他們所在的領(lǐng)域、業(yè)務(wù)和流程,透過不斷的溝通和確認(rèn),才能大致弄清楚他們需要什麼

很多時(shí)候,客戶只有看到軟體成品才會恍然大悟:哦,原來我需要的功能不是這樣的

市面上出現(xiàn)的所有的程式相關(guān)的AI工具,如GitHub Copilot,Amazon CodeWhisperer,都無法直接從客戶需求產(chǎn)生程式碼,都需要程式設(shè)計(jì)師用行話精確地告訴它要做什麼事兒才行。

簡單來說,從客戶需求直接到程式碼生成,這條路不通。

#

從詳盡的軟體規(guī)格說明書到程式碼,非常有望實(shí)現(xiàn)

所以有人搞了一個(gè)新型的外包公司,專門用AI生成程式碼,希望能用更低廉的成本對其他公司進(jìn)行降維打擊。

只有有人與人之間才能交流需求,如果無法實(shí)現(xiàn)普適人工智慧,需求分析這項(xiàng)任務(wù)是無法被AI所解決的

人工智慧的普遍應(yīng)用時(shí)間難以確定

在《機(jī)器之心》中,庫茲韋爾展示了一張計(jì)算力增長的圖表

你知道程式設(shè)計(jì)師再過幾年會沒落?#圖片

從20世紀(jì)到21世紀(jì),計(jì)算力呈指數(shù)成長,依照這個(gè)趨勢,在2025年左右,1000美元的個(gè)人電腦的運(yùn)算能力就可以達(dá)到人類大腦的水平。

到2060年,計(jì)算力能超過所有人類大腦的總和。

不過,計(jì)算力的達(dá)到人類大腦的水平,並不代表智慧也能達(dá)到人類的水平。

人腦中的神經(jīng)元數(shù)量大約是1000億。每個(gè)神經(jīng)元平均約有1000個(gè)連接,共100兆個(gè)連接。

所有連線可以進(jìn)行同步運(yùn)算,這是一種相當(dāng)強(qiáng)大的平行處理能力。

現(xiàn)在人們試圖使用神經(jīng)網(wǎng)路來模擬人腦,但是當(dāng)神經(jīng)元足夠多以後,它到底是如何運(yùn)作的,為什麼展示出了「智慧」的行為,人類還是一頭霧水,只能用個(gè)字--湧現(xiàn)--來模糊地描述它。

所以庫茲韋爾建議研究人的大腦,利用磁振造影掃描儀等技術(shù)窺探大腦內(nèi)部。隨著技術(shù)不斷更新?lián)Q代,掃描解析度和掃描速度不斷提高,非侵入性、非侵入式掃描活人大腦最終變得可行。

根據(jù)掃描得出的信息,繪製出具體位置、相互之間的連接、體細(xì)胞的成分、軸突、樹突、突觸前囊泡以及其他神經(jīng)部分。然後整個(gè)腦組織就可以在一臺記憶體夠大的神經(jīng)電腦中被重造出來,大腦中的儲存內(nèi)容也可以被重造。

這一天不知道什麼時(shí)候才能到來,所以現(xiàn)在不用對AI的威脅憂心忡忡,只要能駕馭AIGC這個(gè)工具,讓他為自己所用,就可以繼續(xù)安心地去搬磚了。

以上是你知道程式設(shè)計(jì)師再過幾年會沒落?的詳細(xì)內(nèi)容。更多資訊請關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本網(wǎng)站聲明
本文內(nèi)容由網(wǎng)友自願投稿,版權(quán)歸原作者所有。本站不承擔(dān)相應(yīng)的法律責(zé)任。如發(fā)現(xiàn)涉嫌抄襲或侵權(quán)的內(nèi)容,請聯(lián)絡(luò)admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費(fèi)脫衣圖片

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅(qū)動的應(yīng)用程序,用於創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費(fèi)的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費(fèi)的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強(qiáng)大的PHP整合開發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺化網(wǎng)頁開發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Laravel 教程
1597
29
PHP教程
1488
72
全球最強(qiáng)開源 MoE 模型來了,中文能力比肩 GPT-4,價(jià)格僅 GPT-4-Turbo 的近百分之一 全球最強(qiáng)開源 MoE 模型來了,中文能力比肩 GPT-4,價(jià)格僅 GPT-4-Turbo 的近百分之一 May 07, 2024 pm 04:13 PM

想像一下,一個(gè)人工智慧模型,不僅擁有超越傳統(tǒng)運(yùn)算的能力,還能以更低的成本實(shí)現(xiàn)更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強(qiáng)開源MoE模型來了。 DeepSeek-V2是一個(gè)強(qiáng)大的專家混合(MoE)語言模型,具有訓(xùn)練經(jīng)濟(jì)、推理高效的特點(diǎn)。它由236B個(gè)參數(shù)組成,其中21B個(gè)參數(shù)用於啟動每個(gè)標(biāo)記。與DeepSeek67B相比,DeepSeek-V2效能更強(qiáng),同時(shí)節(jié)省了42.5%的訓(xùn)練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

大模型一對一戰(zhàn)鬥75萬輪,GPT-4奪冠,Llama 3位列第五 大模型一對一戰(zhàn)鬥75萬輪,GPT-4奪冠,Llama 3位列第五 Apr 23, 2024 pm 03:28 PM

關(guān)於Llama3,又有測試結(jié)果新鮮出爐-大模型評測社群LMSYS發(fā)布了一份大模型排行榜單,Llama3位列第五,英文單項(xiàng)與GPT-4並列第一。圖片不同於其他Benchmark,這份榜單的依據(jù)是模型一對一battle,由全網(wǎng)測評者自行命題並評分。最終,Llama3取得了榜單中的第五名,排在前面的是GPT-4的三個(gè)不同版本,以及Claude3超大杯Opus。而在英文單項(xiàng)榜單中,Llama3反超了Claude,與GPT-4打成了平手。對於這一結(jié)果,Meta的首席科學(xué)家LeCun十分高興,轉(zhuǎn)發(fā)了推文並

YOLO不死! YOLOv9出爐:性能速度SOTA~ YOLO不死! YOLOv9出爐:性能速度SOTA~ Feb 26, 2024 am 11:31 AM

如今的深度學(xué)習(xí)方法專注於設(shè)計(jì)最適合的目標(biāo)函數(shù),以使模型的預(yù)測結(jié)果與實(shí)際情況最接近。同時(shí),必須設(shè)計(jì)一個(gè)合適的架構(gòu),以便為預(yù)測取得足夠的資訊?,F(xiàn)有方法忽略了一個(gè)事實(shí),當(dāng)輸入資料經(jīng)過逐層特徵提取和空間變換時(shí),大量資訊將會遺失。本文將深入探討資料透過深度網(wǎng)路傳輸時(shí)的重要問題,即資訊瓶頸和可逆函數(shù)?;洞颂岢隽丝删幊烫荻荣Y訊(PGI)的概念,以應(yīng)對深度網(wǎng)路實(shí)現(xiàn)多目標(biāo)所需的各種變化。 PGI可以為目標(biāo)任務(wù)提供完整的輸入訊息,以計(jì)算目標(biāo)函數(shù),從而獲得可靠的梯度資訊以更新網(wǎng)路權(quán)重。此外設(shè)計(jì)了一種新的輕量級網(wǎng)路架

第二代Ameca來了!和觀眾對答如流,臉部表情更逼真,會說幾十種語言 第二代Ameca來了!和觀眾對答如流,臉部表情更逼真,會說幾十種語言 Mar 04, 2024 am 09:10 AM

人形機(jī)器人Ameca升級第二代了!最近,在世界行動通訊大會MWC2024上,世界上最先進(jìn)機(jī)器人Ameca又現(xiàn)身了。會場周圍,Ameca引來一大波觀眾。得到GPT-4加持後,Ameca能夠?qū)Ω鞣N問題做出即時(shí)反應(yīng)。 「來一段舞蹈」。當(dāng)被問及是否有情感時(shí),Ameca用一系列的面部表情做出回應(yīng),看起來非常逼真。就在前幾天,Ameca背後的英國機(jī)器人公司EngineeredArts剛剛示範(fàn)了團(tuán)隊(duì)最新的開發(fā)成果。影片中,機(jī)器人Ameca具備了視覺能力,能看見並描述房間整個(gè)狀況、描述具體物體。最厲害的是,她還能

五官亂飛,張嘴、瞪眼、挑眉,AI都能模仿到位,影片詐騙要防不住了 五官亂飛,張嘴、瞪眼、挑眉,AI都能模仿到位,影片詐騙要防不住了 Dec 14, 2023 pm 11:30 PM

好強(qiáng)大的AI模仿能力,真的防不住,完全防不住。現(xiàn)在AI的發(fā)展已經(jīng)達(dá)到這種程度了嗎?你前腳讓自己的五官亂飛,後腳,一模一樣的表情就被復(fù)現(xiàn)出來,瞪眼、挑眉、噘嘴,不管多麼誇張的表情,都模仿的非常到位。加大難度,讓眉毛挑的再高些,眼睛睜的再大些,甚至連嘴型都是歪的,虛擬人物頭像也能完美復(fù)現(xiàn)表情。當(dāng)你在左邊調(diào)整參數(shù)時(shí),右邊的虛擬頭像也會相應(yīng)地改變動作給嘴巴、眼睛一個(gè)特寫,模仿的不能說完全相同,只能說表情一模一樣(最右邊)。這項(xiàng)研究來自慕尼黑工業(yè)大學(xué)等機(jī)構(gòu),他們提出了GaussianAvatars,這種

全球最強(qiáng)模型一夜易主,GPT-4時(shí)代終結(jié)! Claude 3提前狙擊GPT-5,3秒讀懂萬字論文理解力接近人類 全球最強(qiáng)模型一夜易主,GPT-4時(shí)代終結(jié)! Claude 3提前狙擊GPT-5,3秒讀懂萬字論文理解力接近人類 Mar 06, 2024 pm 12:58 PM

卷瘋了卷瘋了,大模型又變天了。就在剛剛,全球最強(qiáng)AI模型一夜易主,GPT-4被拉下神壇。 Anthropic發(fā)布了最新的Claude3系列模型,一句話評價(jià):真·全面碾壓GPT-4!在多模態(tài)和語言能力指標(biāo)上,Claude3都贏麻了。用Anthropic的話來說,Claude3系列模型在推理、數(shù)學(xué)、編碼、多語言理解和視覺方面,都樹立了新的行業(yè)基準(zhǔn)! Anthropic,就是曾因安全理念不合,而從OpenAI「叛逃」出的員工組成的新創(chuàng)公司,他們的產(chǎn)品一再給OpenAI暴擊。這次的Claude3,更是整了個(gè)大的

1.3ms耗時(shí)!清華最新開源行動裝置神經(jīng)網(wǎng)路架構(gòu) RepViT 1.3ms耗時(shí)!清華最新開源行動裝置神經(jīng)網(wǎng)路架構(gòu) RepViT Mar 11, 2024 pm 12:07 PM

論文地址:https://arxiv.org/abs/2307.09283代碼地址:https://github.com/THU-MIG/RepViTRepViT在移動端ViT架構(gòu)中表現(xiàn)出色,展現(xiàn)出顯著的優(yōu)勢。接下來,我們將探討本研究的貢獻(xiàn)所在。文中提到,輕量級ViTs通常比輕量級CNNs在視覺任務(wù)上表現(xiàn)得更好,這主要?dú)w功于它們的多頭自注意力模塊(MSHA)可以讓模型學(xué)習(xí)全局表示。然而,輕量級ViTs和輕量級CNNs之間的架構(gòu)差異尚未得到充分研究。在這項(xiàng)研究中,作者們通過整合輕量級ViTs的有效

行人軌跡預(yù)測有哪些有效的方法和普遍的Base方法?頂會論文分享! 行人軌跡預(yù)測有哪些有效的方法和普遍的Base方法?頂會論文分享! Oct 17, 2023 am 11:13 AM

軌跡預(yù)測近兩年風(fēng)頭正猛,但大都聚焦於車輛軌跡預(yù)測方向,自動駕駛之心今天就為大家分享頂會NeurIPS上關(guān)於行人軌跡預(yù)測的演算法—SHENet,在受限場景中人類的移動模式通常在一定程度上符合有限的規(guī)律?;哆@個(gè)假設(shè),SHENet透過學(xué)習(xí)隱含的場景規(guī)律來預(yù)測一個(gè)人的未來軌跡。文章已經(jīng)授權(quán)自動駕駛之心原創(chuàng)!作者的個(gè)人理解由於人類運(yùn)動的隨機(jī)性和主觀性,目前預(yù)測一個(gè)人的未來軌跡仍然是一個(gè)具有挑戰(zhàn)性的問題。然而,由於場景限制(例如平面圖、道路和障礙物)以及人與人或人與物體的互動性,在受限場景中人類的移動模式通

See all articles