亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

首頁 科技週邊 人工智慧 AI輔助腦機介面研究,紐約大學突破性神經(jīng)語音解碼技術,登Nature子刊

AI輔助腦機介面研究,紐約大學突破性神經(jīng)語音解碼技術,登Nature子刊

Apr 17, 2024 am 08:40 AM
git iis 理論

AI輔助腦機介面研究,紐約大學突破性神經(jīng)語音解碼技術,登Nature子刊

作者| 陳旭鵬?

編輯| ScienceAI

由於神經(jīng)系統(tǒng)的缺陷導致的失語癥會導致嚴重的生活障礙,它可能會限制人們的職業(yè)和社交生活。

近年來,深度學習和腦機介面(BCI)技術的快速發(fā)展為開發(fā)能夠幫助失語者溝通的神經(jīng)語音義肢提供了可行性。然而,神經(jīng)訊號的語音解碼面臨挑戰(zhàn)。

近日,約旦大學VideoLab和Flinker Lab的研究者開發(fā)了一個新型的可微分語音合成器,可以利用一個輕型的捲積神經(jīng)網(wǎng)路將語音編碼為一系列可解釋的語音參數(shù)(例如音高、響度、共振峰頻率等),並透過可微分神經(jīng)網(wǎng)路將這些參數(shù)合成為語音。這個合成器還可以透過一個輕型的捲積神經(jīng)網(wǎng)路來解析語音參數(shù)(例如音高、響度、共振峰頻率等),以及通 過可微分語音合成器重新合成語音。

研究者建立了一個高度可解釋且可應用於小數(shù)據(jù)量情形的神經(jīng)訊號解碼系統(tǒng),透過將神經(jīng)訊號映射到這些語音參數(shù),而不改變原內(nèi)容的意思。

研究以「A neural speech decoding framework leveraging deep learning and speech synthesis」為題,於2024 年4 月8 日發(fā)表在《Nature Machine Intelligence 》雜誌上。

AI輔助腦機介面研究,紐約大學突破性神經(jīng)語音解碼技術,登Nature子刊

論文連結:https://www.nature.com/articles/s42256-024-00824-8

#研究背景

開發(fā)神經(jīng)-語音解碼器的嘗試大多數(shù)依賴於一種特殊的數(shù)據(jù):透過皮質(zhì)電圖(ECoG)記錄獲取接受癲癇手術患者的數(shù)據(jù)。利用患有癲癇的患者植入的電極,在發(fā)音時收集大腦皮層數(shù)據(jù),這些數(shù)據(jù)具有高時空分辨率,已經(jīng)在語音解碼領域幫助研究者獲得了一系列很顯著的成果,幫助推動了腦機接口領域的發(fā)展。

神經(jīng)訊號的語音解碼面臨兩大挑戰(zhàn)。

首先,用於訓練個人化神經(jīng)到語音解碼模型的資料在時間上是非常有限的,通常只有十分鐘左右,而深度學習模型往往需要大量的訓練資料來驅(qū)動。

其次,人類的發(fā)音非常多樣,即使是同一個人重複說出相同的單詞,語速、語調(diào)和音調(diào)等也會有變化,這給模型構建的表徵空間增加了複雜性。

早期的解碼神經(jīng)訊號到語音的嘗試主要依賴線性模型,模型通常不需要龐大的訓練資料集,可解釋性強,但是準確率很低。

近期的基於深度神經(jīng)網(wǎng)絡,尤其是利用卷積和循環(huán)神經(jīng)網(wǎng)路架構,在模擬語音的中間潛在表示和合成後語音品質(zhì)兩個關鍵維度上展開。例如,有研究將大腦皮質(zhì)活動解碼成口型運動空間,然後再轉(zhuǎn)化為語音,雖然解碼性能強大,但重建的聲音聽起來不自然。

另一方面,有些方法透過利用wavenet聲碼器、生成對抗網(wǎng)路(GAN)等,雖然成功重建了自然聽感的語音,但準確度有限。最近,在一個植入了設備的患者的研究中,透過使用量化的HuBERT特徵作為中間表示空間和預訓練的語音合成器將這些特徵轉(zhuǎn)換成語音,實現(xiàn)了既準確又自然的語音波形。

然而,HuBERT特徵不能表示發(fā)音者特有的聲學訊息,只能產(chǎn)生固定統(tǒng)一的發(fā)音者聲音,因此需要額外的模型將這種通用聲音轉(zhuǎn)換為特定患者的聲音。此外,這項研究和大多數(shù)先前的嘗試採用了非因果(non-causal)架構,這可能限制其在需要時序因果(causal)操作的腦機介面實際應用中的使用。

主要模型架構

AI輔助腦機介面研究,紐約大學突破性神經(jīng)語音解碼技術,登Nature子刊

圖1:提出的神經(jīng)語音解碼框架。 (資料來源:論文)

為應對這些挑戰(zhàn),研究者在這篇文章中介紹了一個新型的從腦電(ECoG)訊號到語音的解碼框架,研究人員建構了一個低維度的中間表示(low dimension latent representation),該表示透過僅使用語音訊號的語音編解碼模型產(chǎn)生(圖1)。

研究提出的框架由兩部分組成:一部分是ECoG解碼器,它能將ECoG訊號轉(zhuǎn)換為我們可以理解的聲學語音參數(shù)(例如音高、是否發(fā)聲、響度、以及共振峰頻率等);另一部分是語音合成器,它將這些語音參數(shù)轉(zhuǎn)換為頻譜圖。

研究者らは、微分可能な音聲合成器を構築しました。これにより、音聲合成器は ECoG デコーダのトレーニング中にトレーニングに參加し、スペクトログラム再構成のエラーを減らすために共同で最適化することができます。この低次元潛在空間は、參照音聲パラメータを生成するための軽量の事前トレーニング済み音聲エンコーダと組み合わせることで強力な解釈可能性を備えており、研究者が効率的なニューラル音聲復號化フレームワークを構築し、データ不足の問題を克服するのに役立ちます。

このフレームワークは、話者自身の聲に非常に近い自然な音聲を生成でき、ECoG デコーダー部分はさまざまな深層學習モデル アーキテクチャに接続でき、因果的操作もサポートします。研究者らは、ECoG デコーダーとして複數(shù)の深層學習アーキテクチャ (畳み込み、リカレント ニューラル ネットワーク、トランスフォーマーを含む) を使用して、48 人の脳神経外科患者から ECoG データを収集および処理しました。

このフレームワークはさまざまなモデルで高い精度を?qū)g証しており、畳み込み (ResNet) アーキテクチャで得られる最高のパフォーマンスでは、元のスペクトログラムとデコードされたスペクトログラム間のピアソン相関係數(shù) (PCC) が 0.806 に達しました。研究者らによって提案されたフレームワークは、因果的操作と比較的低いサンプリング レート (低密度、10 mm 間隔) を通じてのみ高精度を達成できます。

研究者らはまた、効果的な音聲デコードが脳の左半球と右半球の両方から実行できることを?qū)g証し、神経音聲デコードの応用を右半球に拡張しました。

研究関連コードのオープンソース:https://github.com/flinkerlab/neural_speech_decoding

その他の生成された音聲の例:https://xc1490. .io/nsd/

AI輔助腦機介面研究,紐約大學突破性神經(jīng)語音解碼技術,登Nature子刊

図: 微分可能な音聲合成アーキテクチャ。 (出典: 論文)

この研究の重要な革新は、音聲再合成タスクを非常に効率的にし、非常に小さな音聲で高忠実度に合成できる微分可能な音聲合成裝置 (音聲合成裝置) を提案することです。原音と一致するオーディオ。

微分可能音聲合成の原理は、人間の生成システムの原理を利用し、音聲を 2 つの部分 (母音のモデル化に使用) と無聲 (子音のモデル化に使用) の 2 つの部分に分割します。

音聲部分は、まず基本周波數(shù)信號を使用して高調(diào)波を生成し、F1 ~ F6 のフォルマントで構成されるフィルターでフィルタリングして、無聲部分の母音部分のスペクトル特性を取得します。研究者は対応するフィルターを使用します。ホワイトノイズに対応するスペクトルがフィルタリングによって取得され、學習可能なパラメータによって各瞬間の 2 つの部分の混合比を調(diào)整できます。その後、ラウドネス信號が増幅され、バックグラウンドノイズが追加されて、最終的な音聲スペクトルが取得されます。この音聲合成裝置に基づいて,本論文は効率的な音聲再合成フレームワークとニューラル音聲復號化フレームワークを設計した。

研究結果

時間的因果関係を伴う音聲解読結果

AI輔助腦機介面研究,紐約大學突破性神經(jīng)語音解碼技術,登Nature子刊

図2 : 非因果モデルと因果モデルの元のスペクトログラムとデコードされたスペクトログラムのデコード パフォーマンスを比較します。 (出典: 論文)
まず、研究者らは、さまざまなモデル アーキテクチャ (Convolution (ResNet)、Recurrent (LSTM)、Transformer (3D Swin)) の音聲デコード性能の違いを直接比較しました。これらのモデルはすべて、非因果的操作または因果的操作を時間どおりに実行できます。

調(diào)査結果では、ResNet モデルがすべてのモデルの中で最も優(yōu)れたパフォーマンスを示し、48 人の參加者の間で最も高い PI を達成しました。非因果的および因果的の平均 PCC はそれぞれ 0.806 および 0.797 であり、Swin モデルがそれに続きます (非因果的および因果的の平均 PCC はそれぞれ 0.792 および 0.798) (図 2a) 同様の結果が得られました。 STOI 指標の評価を通じて、デコード モデルの因果関係は、ブレイン コンピューター インターフェイス (BCI) アプリケーションにとって非常に重要です。因果モデルは、音聲を生成するために過去と現(xiàn)在の神経信號のみを使用し、將來の神経信號は使用しません。過去の研究では、リアルタイム アプリケーションでは実現(xiàn)不可能な非因果的モデルが使用されることが多かったので、研究者は非因果的操作と因果的操作を?qū)g行する際の同じモデルのパフォーマンスを比較することに焦點を當ててきました。 ResNet モデルの因果バージョンでも非因果バージョンと同等であり、両者の間に大きな違いはありません。同様に、Swin モデルの因果バージョンと非因果バージョンのパフォーマンスは類似しています。 LSTM モデルの因果バージョンは大幅に低いため、研究者は將來、ResNet モデルと Swin モデルに焦點を當てて、この記事で提案されているフレームワークを適切に一般化できるようにします。これは、同じ単語の異なるトライアルがトレーニング セットとテスト セットの両方に現(xiàn)れないことを意味します。

図 2b に示すように、パフォーマンスは次のとおりです。目に見えない単語の解析は、論文の標準的な試行方法と同等であり、モデルがトレーニング中に見えなかった単語もデコードできることを示しています。これは主に、この記事で構築されたモデルが音素などを?qū)g行するという事実によるものです。レベル音聲デコード

さらに、研究者らは、2 人の參加者 (低密度サンプリング レート ECoG) からのデータを示し、単一ワード レベルでの ResNet 因果デコーダーのパフォーマンスを?qū)g証しています。デコードされたスペクトログラムは、元の音聲のスペクトル時間構造を正確に保持しています (図 2c、d)。

研究者らはまた、ニューラル デコーダーによって予測された音聲パラメーターと、音聲エンコーダーによってエンコードされたパラメーター (參考値として) を比較し、いくつかの主要な音聲パラメーター (N=48) の平均 PCC 値を示しました。 )、音の重み (母音と子音を區(qū)別するために使用)、ラウドネス、ピッチ f0、第 1 フォルマント f1 および第 2 フォルマント f2 が含まれます。これらの音聲パラメータ、特にピッチ、音の重み、最初の 2 つのフォルマントを正確に再構成することは、參加者の聲を自然に模倣する正確な音聲デコードと再構成を?qū)g現(xiàn)するために重要です。

研究結果は、非因果モデルと因果モデルの両方が合理的な解読結果を取得できることを示しており、これは將來の研究と応用に前向きな指針を提供します。

音聲デコードと左脳?右脳神経信號の空間サンプリングレートに関する研究

AI輔助腦機介面研究,紐約大學突破性神經(jīng)語音解碼技術,登Nature子刊

図 3: 3D ResNet と 3D Swin機種別設定時のデコード性能比較。 (出典: 論文)

研究者らはさらに、左右の大脳半球の音聲解読結果を比較しました。ほとんどの研究は、音聲と言語の機能を擔う脳の左半球に焦點を當てています。しかし、右脳半球から言語情報がどのように解読されるかについてはほとんどわかっていません。これに応えて、研究者らは參加者の左右の大脳半球のデコード性能を比較し、音聲回復に右大脳半球を使用できる可能性を検証した。

研究で収集された 48 人の被験者のうち、16 人の被験者は右脳から ECoG 信號を収集しました。 ResNet と Swin デコーダーのパフォーマンスを比較することにより、研究者らは、右半球でも音聲を安定してデコードできる (ResNet の PCC 値は 0.790、Swin の PCC 値は 0.798) ことがわかり、これは左半球のデコード効果とあまり変わらないことを発見しました (図 3a) に示されています。

この発見は、STOI の評価にも當てはまります。これは、左半球に損傷があり言語能力を失った患者にとって、右半球からの神経信號を使用して言語を回復することが実現(xiàn)可能な解決策である可能性があることを意味します。

次に、研究者らは、音聲デコード効果に対する電極サンプリング密度の影響を調(diào)査しました。以前の研究では主に高密度の電極グリッド (0.4 mm) が使用されていましたが、臨床現(xiàn)場で一般的に使用されている電極グリッドの密度はより低い (LD 1 cm) です。

5 人の參加者は、主に低密度のサンプリングですが、追加の電極が組み込まれたハイブリッド タイプ (HB) 電極グリッド (図 3b を參照) を使用しました。殘りの 43 人の參加者は低密度でサンプリングされました。これらのハイブリッド サンプル (HB) のデコード パフォーマンスは、従來の低密度サンプル (LD) と同様ですが、STOI ではわずかに優(yōu)れています。

研究者らは、デコードに低密度電極のみを使用した場合とすべての混合電極を使用した場合の効果を比較し、両者の差は有意ではないことを発見しました (図 3d を參照)。さまざまな空間からのサンプル密度 音聲情報は大脳皮質(zhì)で學習されますが、このことは、臨床現(xiàn)場で一般的に使用されるサンプリング密度が將來のブレイン-コンピューター インターフェイスのアプリケーションには十分である可能性があることも意味します。

音聲デコーディングに対する左脳と右脳の異なる脳領域の寄與に関する研究

AI輔助腦機介面研究,紐約大學突破性神經(jīng)語音解碼技術,登Nature子刊
図 4: 寄與分析。 (出典: 論文)

最後に、研究者らは音聲復號化プロセスにおける脳の音聲関連領域の寄與を調(diào)べました。これは、將來の左右への音聲復元裝置の埋め込みにとって重要な參考資料となります。脳の半球。研究者らは、オクルージョン分析を使用して、音聲デコードに対するさまざまな脳領域の寄與を評価しました。

つまり、特定の領域がデコードに重要な場合、その領域の電極信號をブロックすると (つまり、信號をゼロに設定すると)、再構成された音聲の精度 (PCC 値) が低下します。

この方法を使用して、研究者らは各領域が閉塞されたときの PCC 値の減少を測定しました。 ResNet と Swin デコーダの因果モデルと非因果モデルを比較すると、聴覚皮質(zhì)が非因果モデルでより多く寄與していることがわかり、リアルタイム音聲デコード アプリケーションでは因果モデルを使用する必要があることが強調(diào)されます。リアルタイム音聲デコードでは、ニューロフィードバック信號を利用できません。

さらに、感覚運動皮質(zhì)、特に腹部の寄與は右半球でも左半球でも同様であり、右半球に神経プロテーゼを移植することが可能である可能性があることを示唆しています。

結論と感動的な展望

研究者らは、軽量畳み込みニューラル ネットワークを使用して音聲を一連の解釈可能な音聲パラメータにエンコードできる、新しいタイプの微分可能な音聲合成裝置を開発しました。 (ピッチ、ラウドネス、フォルマント周波數(shù)など)、微分可能な音聲合成裝置を通じて音聲を再合成します。

研究者らは、神経信號をこれらの音聲パラメータにマッピングすることで、解釈可能性が高く、データ量が少ない狀況にも適用でき、自然な音聲を生成できるニューラル音聲デコード システムを構築しました。この方法は參加者 (合計 48 人) 全體で再現(xiàn)性が高く、研究者らは、リカレント アーキテクチャ (LSTM) よりも優(yōu)れている畳み込みおよびトランスフォーマー (3D Swin) アーキテクチャを使用した因果解読の有効性を?qū)g証することに成功しました。

このフレームワークは、高い空間サンプリング密度と低い空間サンプリング密度を処理でき、左半球と右半球からの EEG 信號を処理できるため、強力な音聲デコードの可能性が示されます。

これまでの研究のほとんどは、リアルタイムのブレイン-コンピューター インターフェイス アプリケーションにおけるデコード操作の時間的因果関係を考慮していませんでした。多くの非因果モデルは、聴覚感覚フィードバック信號に依存しています。研究者らの分析では、非因果モデルは主に上側頭回の寄與に依存しているのに対し、因果モデルは基本的にこれを排除していることが示された。研究者らは、フィードバック信號に過度に依存しているため、リアルタイム BCI アプリケーションにおける非因果モデルの汎用性が制限されていると考えています。

一部の方法では、被験者の想像上の音聲を解読するなど、トレーニング中のフィードバックを回避しようとします。それにもかかわらず、ほとんどの研究は依然として非因果モデルを採用しており、トレーニングと推論中のフィードバック効果を排除できません。さらに、文獻で広く使用されているリカレント ニューラル ネットワークは通常雙方向であるため、非因果的な動作や予測遅延が発生しますが、私たちの実験では、一方向にトレーニングされたリカレント ネットワークのパフォーマンスが最悪であることが示されています。

この研究ではリアルタイムのデコードはテストされていませんが、研究者らは神経信號から音聲を合成する際に 50 ミリ秒未満の遅延を達成し、聴覚遅延にはほとんど影響せず、通常の音聲生成が可能でした。

この研究では、カバレージの密度を高めることでデコードのパフォーマンスが向上するかどうかを調(diào)査しました。研究者らは、低密度と高密度のグリッド カバレッジの両方で高いデコード パフォーマンスが達成されることを発見しました (図 3c を參照)。さらに、研究者らは、すべての電極を使用した場合のデコード性能は、低密度電極のみを使用した場合の性能と大きく変わらないことを発見しました (図 3d)。

これは、低密度の參加者であっても、手頭周囲のカバレージが十分である限り、研究者が提案した ECoG デコーダは音聲を再構成するために神経信號から音聲パラメータを抽出できることを証明しています。もう一つの注目すべき発見は、右半球の皮質(zhì)構造と、音聲解読に対する右頭頭周囲皮質(zhì)の寄與でした。これまでのいくつかの研究では、右半球が母音と文の解読に寄與している可能性があることが示されていますが、今回の結果は、右半球における堅牢な音韻表現(xiàn)の証拠を提供しています。

研究者らは、現(xiàn)在のモデルのいくつかの制限についても言及しました。たとえば、デコードプロセスには ECoG 録音と組み合わせた音聲トレーニングデータが必要ですが、これは失語癥患者には適用できない可能性があります。將來的には、研究者らは、非グリッド データを処理し、複數(shù)の患者、マルチモーダルな EEG データをより適切に活用できるモデル アーキテクチャを開発したいと考えています。

この記事の筆頭著者: Xupeng Chen、Ran Wang、責任著者: Adeen Flinker。

資金援助: 國立科學財団 (助成金番號 IIS-1912286、2309057 (Y.W.、A.F.) および國立衛(wèi)生研究所 R01NS109367、R01NS115929、R01DC018805 (A.F.)) 。

神経音聲デコードにおける因果関係の詳細については、著者による別の論文「分散型フィードフォワードおよびフィードバック皮質(zhì)処理が人間の音聲生成をサポートする」を參照してください: https :/ /www.pnas.org/doi/10.1073/pnas.2300255120

出典: ブレイン コンピューター インターフェイス コミュニティ

以上是AI輔助腦機介面研究,紐約大學突破性神經(jīng)語音解碼技術,登Nature子刊的詳細內(nèi)容。更多資訊請關注PHP中文網(wǎng)其他相關文章!

本網(wǎng)站聲明
本文內(nèi)容由網(wǎng)友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發(fā)現(xiàn)涉嫌抄襲或侵權的內(nèi)容,請聯(lián)絡admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅(qū)動的應用程序,用於創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺化網(wǎng)頁開發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Laravel 教程
1597
29
PHP教程
1488
72
如何將子樹添加到我的git存儲庫中? 如何將子樹添加到我的git存儲庫中? Jul 16, 2025 am 01:48 AM

要將子樹添加到Git倉庫,首先添加遠程倉庫並獲取其歷史記錄,接著使用gitmerge和gitread-tree命令將其合併為子目錄。步驟如下:1.使用gitremoteadd-f命令添加遠程倉庫;2.運行gitmerge--srecursive--no-commit獲取分支內(nèi)容;3.使用gitread-tree--prefix=指定目錄將項目作為子樹合併;4.提交更改以完成添加;5.更新時先gitfetch再重複合併步驟提交更新。此方法保持外部項目歷史完整且便於維護。

什麼是Useless Coin(USELESS幣)? USELESS幣用途、突出特點及未來增長潛力概述 什麼是Useless Coin(USELESS幣)? USELESS幣用途、突出特點及未來增長潛力概述 Jul 24, 2025 pm 11:54 PM

目錄關鍵要點什麼是UselessCoin:概述和主要特徵USELESS的主要特點UselessCoin(USELESS)未來價格展望:2025年及以後什麼影響UselessCoin的價格?未來價格前景UselessCoin(USELESS)的核心功能及其重要性UselessCoin(USELESS)如何運作以及它帶來的好處UselessCoin的工作原理主要優(yōu)點關於USELESSCoin的公司本組織的伙伴關係他們?nèi)绾螀f(xié)同工

成品python大片在線觀看入口 python免費成品網(wǎng)站大全 成品python大片在線觀看入口 python免費成品網(wǎng)站大全 Jul 23, 2025 pm 12:36 PM

本文為您精選了多個頂級的Python“成品”項目網(wǎng)站與高水平“大片”級學習資源入口。無論您是想尋找開發(fā)靈感、觀摩學習大師級的源代碼,還是系統(tǒng)性地提昇實戰(zhàn)能力,這些平臺都是不容錯過的寶庫,能幫助您快速成長為Python高手。

比特幣代號是什麼?比特幣是什麼樣式的代碼? 比特幣代號是什麼?比特幣是什麼樣式的代碼? Jul 22, 2025 pm 09:51 PM

比特幣作為數(shù)字世界的先驅(qū),其獨特的代號和底層技術一直是人們關注的焦點。它的標準代號是 BTC,在某些符合國際標準的平臺上也被稱為 XBT。從技術角度看,比特幣並非單一的代碼樣式,而是一個龐大且精密的開源軟件項目,其核心代碼主要由 C 語言編寫,並融合了密碼學、分佈式系統(tǒng)和經(jīng)濟學原理,任何人都可以查看、審查和貢獻其代碼。

如何在PHP環(huán)境中設置環(huán)境變量 PHP運行環(huán)境變量添加說明 如何在PHP環(huán)境中設置環(huán)境變量 PHP運行環(huán)境變量添加說明 Jul 25, 2025 pm 08:33 PM

PHP設置環(huán)境變量主要有三種方式:1.通過php.ini全局配置;2.通過Web服務器(如Apache的SetEnv或Nginx的fastcgi_param)傳遞;3.在PHP腳本中使用putenv()函數(shù)。其中,php.ini適用於全局且不常變的配置,Web服務器配置適用於需要隔離的場景,putenv()適用於臨時性的變量。持久化策略包括配置文件(如php.ini或Web服務器配置)、.env文件配合dotenv庫加載、CI/CD流程中動態(tài)注入變量。安全管理敏感信息應避免硬編碼,推薦使用.en

Solana夏季:開發(fā)者活動、迷因幣與下一波熱潮 Solana夏季:開發(fā)者活動、迷因幣與下一波熱潮 Jul 25, 2025 am 07:54 AM

Solana的強勢復甦:開發(fā)者活躍激增與迷因幣狂歡驅(qū)動,能否持久?趨勢深度解讀Solana捲土重來了!在經(jīng)歷一段沉寂後,該公鏈再度煥發(fā)活力,幣價持續(xù)走高,開發(fā)社區(qū)也愈發(fā)熱鬧。但這波反彈的真正動力來自哪裡?是否只是曇花一現(xiàn)?我們來深入拆解Solana當前的幾大核心動向:開發(fā)者生態(tài)、迷因幣狂熱以及整體生態(tài)擴張。幣價飆升背後:真實開發(fā)活動回暖最近,SOL價格自六月以來首次重返200美元上方,引發(fā)市場熱議。這並非空穴來風——根據(jù)Santiment數(shù)據(jù)顯示,其開發(fā)者提交代碼頻率達到近兩個月新高。這

如何用Mac搭建PHP Nginx環(huán)境 MacOS配置Nginx與PHP服務組合 如何用Mac搭建PHP Nginx環(huán)境 MacOS配置Nginx與PHP服務組合 Jul 25, 2025 pm 08:24 PM

Homebrew在Mac環(huán)境搭建中的核心作用是簡化軟件安裝與管理。 1.Homebrew自動處理依賴關係,將復雜的編譯安裝流程封裝為簡單命令;2.提供統(tǒng)一的軟件包生態(tài),確保軟件安裝位置與配置標準化;3.集成服務管理功能,通過brewservices可便捷啟動、停止服務;4.便於軟件升級與維護,提升系統(tǒng)安全性與功能性。

在應用IIS服務器上應用Windows更新後出現(xiàn)的故障排除問題 在應用IIS服務器上應用Windows更新後出現(xiàn)的故障排除問題 Jul 16, 2025 am 01:27 AM

Windows更新後IIS服務器常見問題可通過以下步驟排查解決:1.若IIS服務無法啟動,檢查服務狀態(tài)及事件日誌,嘗試重啟服務或重新註冊/安裝IIS;2.應用程序池異常崩潰時,查看應用程序日誌,確認.NET版本與權限設置,嘗試重置身份或使用內(nèi)置賬戶;3.網(wǎng)站出現(xiàn)HTTP500錯誤或空白頁時,啟用詳細錯誤信息、檢查模塊配置,並通過本地瀏覽和簡單頁面測試定位問題;4.SSL綁定或證書失效時,驗證綁定配置、證書信任與私鑰權限,檢測端口衝突並使用工具測試SSL連接,必要時重新綁定證書或更新根證書。

See all articles