DENTRO DO SISTEMA GRACELI SDCTIE , SE TEM MAIS DE DEZ DIMENSÕES E NÃO NECESSARIAMENTE RELACIONADAS COM O TEMPO E ESPAÇO, MAS COM A ESTRUTURA [MÁTRIA E ENERGIA] ENERGIAS, FENÔMENOS E DIMENSÕES.
AGORA SERÁ EXPRESSO AS DIMENSÕES CATEGORIAIS, ONDE SE TEM UMA RELAÇÃO DIRETA COM AS CATEGORIAS DE GRACELI [DE] :
TIPOS, NÍVEIS [INTENSIDADES] POTENCIAIS [CAPACIDADES DE PRODUÇÕES E TRANSFORMAS, INTERAÇÕES, E OUTROS, E O TEMPO DE AÇÃO.
AGORA SURGE MAIS DUAS :
AS ACELERAÇÕES [VARIÁVIES COM O TEMPO] E O DIRECIONAMENTO [PARA ONDE VAI [COMO NOS MOVIMENTOS ALEATÓRIOS, OU CAMINHOS QUÂNTICO.
ABAIXO SE TEM A FUNÇÃO DE CATEGORIAS, AGORA DIMENSÕES CATEGORIAIS DE GRACELI. INCLUINDO AS OUTRAS DUAS. [ACELERAÇÕES E DIRECIONAMENTOS, E COM FLUXOS VARIADOS].
T l T l E l Fl dfG l
N l El tf l
P l Ml tfefel
Ta l Rl
Ll
ESTADOSTRANSICIONAIS-DINÃMICA GRACELI EM SDCTIE GRACELI.
DENTRO DE UM SISTEMA DE ESTADOS EM INTERAÇÕES E TRANSFORMAÇÕES DE ESTADOS QUÂNTICOS E ESTADOS FÍSICOS, E ESTADOS DE GRACELI ENVOLVENDO ESTADOS E DIMENSÕES [DEZ OU MAIS DIMENSÕES DE GRACELI], E ESTADOS FENOMÊNICOS, DE ENERGIAS, DE CATEGORIAS E DIMENSÕES. SE TEM UM SISTEMA FÍSICO DINÂMICO E ESTRUTURAS [DE PART´CILAS E SUAS TRANSIÇÕES] CONFORME O SDCTIE GRACELI.
O SDCTIE GRACELI DEFENDE QUE A REALIDADE FÍSICA, QUÍMICA, BIOLÓGICA, PSICOLÓGICA, SOCIAL, ONTOLÓGICA, E METAFÍSICA,
E MESMO EPISTÊMICA [CONHECIMENTO E LINGUAGEM] NÃO SE FUNDAMENTA EM OBSERVADOR , ONDE O OBSERVADOR PODE ALTERAR A REALIDADE EM SI. [PODE PARA ELE, MAS NÃO A REALIDADE EM SI]. [ISTO CAI POR TERRA O PRINCÍPIO DA INCERTEZA QUÂNTICO].
E QUE A REALIDADE SE FUNDAMENTA EM SISTEMA DE INTERAÇÕES ENVOLVENDO CATEGORIAS, DEZ OU MAIS DIMENSÕES DE GRACELI, INTERAÇÕES, TRANSFORMAÇÕES, E ESTADOS FENOMÊNICOS E TRANSICIONAIS DE GRACELI.
E NÃO APENAS EM: ESPAÇO E TEMPO, OU MATÉRIA E ENERGIA.
OU SEJA, A REALIDADE, OU AS REALIDADES SÃO MUITO MAIS DO QUE ISTO [ESPAÇO, TEMPO , ENERGIA E MATÉRIA]. E OU OBSERVADOR.
¨SENDO QUE AQUILO QUE NÃO SE VÊ NÃO É SINAL QUE NÃO EXISTE.
OU AQUILO QUE SE VÊ É SINAL QUE EXISTE, OU NÃO EXISTE¨.
E MESMO EPISTÊMICA [CONHECIMENTO E LINGUAGEM] NÃO SE FUNDAMENTA EM OBSERVADOR , ONDE O OBSERVADOR PODE ALTERAR A REALIDADE EM SI. [PODE PARA ELE, MAS NÃO A REALIDADE EM SI]. [ISTO CAI POR TERRA O PRINCÍPIO DA INCERTEZA QUÂNTICO].
E QUE A REALIDADE SE FUNDAMENTA EM SISTEMA DE INTERAÇÕES ENVOLVENDO CATEGORIAS, DEZ OU MAIS DIMENSÕES DE GRACELI, INTERAÇÕES, TRANSFORMAÇÕES, E ESTADOS FENOMÊNICOS E TRANSICIONAIS DE GRACELI.
E NÃO APENAS EM: ESPAÇO E TEMPO, OU MATÉRIA E ENERGIA.
OU SEJA, A REALIDADE, OU AS REALIDADES SÃO MUITO MAIS DO QUE ISTO [ESPAÇO, TEMPO , ENERGIA E MATÉRIA]. E OU OBSERVADOR.
¨SENDO QUE AQUILO QUE NÃO SE VÊ NÃO É SINAL QUE NÃO EXISTE.
OU AQUILO QUE SE VÊ É SINAL QUE EXISTE, OU NÃO EXISTE¨.
OS TERMONS E OS RADIONS [DE GRACELI] ONDE SÃO FEIXES DE RADIAÇÕES EM PROPAGAÇÃO NO ESPAÇO E DENTRO DA MATÉRIA,
E QUE TAMBÉM TEM PROPAGAÇÕES NO FORMATO DE ONDAS.
OU SEJA, É UMA DUALIDADE ONDAS PARTÍCULAS.
TERCEIRA QUANTIZAÇÃO PELO SDCTIE GRACELI
TRANS-QUÂNTICA SDCTIE GRACELI, TRANSCENDENTE, RELATIVISTA SDCTIE GRACELI, E TRANS-INDETERMINADA.
FUNDAMENTA-SE EM QUE TODA FORMA DE REALIDADE SE ENCONTRA EM TRANSFORMAÇÕES, INTERAÇÕES, TRANSIÇÕES DE ESTADOS [ESTADOS DE GRACELI], ENERGIAS E FENÔMENOS DENTRO DE UM SISTEMA DE DEZ OU MAIS DIMENSÕES DE GRACELI, E CATEGORIAS DE GRACELI.
FUNÇÃO GERAL GRACELI DA TRANS- INDETERMINALIDADE PELO SDCTIE GRACELI
FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI. E DE ESTADOS TRANSICIONAIS =
TRANSFORMAÇÕES ⇔ INTERAÇÕES ⇔ TUNELAMENTO ⇔ EMARANHAMENTO ⇔ CONDUTIVIDADE ⇔ DIFRAÇÕES ⇔ estrutura eletrônica, spin, radioatividade, ABSORÇÕES E EMISSÕES INTERNA ⇔ Δ de temperatura e dinâmicas, transições de estados quântico Δ ENERGIAS, ⇔ Δ MASSA , ⇔ Δ CAMADAS ORBITAIS , ⇔ Δ FENÔMENOS , ⇔ Δ DINÂMICAS, ⇔ Δ VALÊNCIAS, ⇔ Δ BANDAS, Δ entropia e de entalpia, E OUTROS.
x
+ FUNÇÃO TÉRMICA.
[EQUAÇÃO DE DIRAC].
+ FUNÇÃO DE RADIOATIVIDADE
, + FUNÇÃO DE TUNELAMENTO QUÂNTICO.
+ ENTROPIA REVERSÍVEL
+ FUNÇÃO DE CONDUÇÃO ELETROMAGNÉTICA
ENERGIA DE PLANCK
X
-
V [R] [MA] = Δe,M, Δf, ΔE, Δt, Δi, ΔT, ΔC, ΔE,ΔA, ΔD, ΔM......
ΤDCG
X
Δe, ΔM, Δf, ΔE, Δt, Δi, ΔT, ΔC, ΔE,ΔA, ΔD, ΔM...... =
x
sistema de dez dimensões de Graceli +
DIMENSÕES EXTRAS DO SISTEMA DECADIMENSIONAL E CATEGORIAL GRACELI.[como, spins, posicionamento, afastamento, ESTRUTURA ELETRÔNICA, e outras já relacionadas]..
-
-
DIMENSÕES DE FASES DE ESTADOS DE TRANSIÇÕES DE GRACELI.
x
sistema de transições de estados, e estados de Graceli, fluxos aleatórios quântico, potencial entrópico e de entalpia. [estados de transições de fases de estados de estruturas, quântico, fenomênico, de energias, e dimensional [sistema de estados de Graceli].
x
número atômico, estrutura eletrônica, níveis de energia
- TEMPO ESPECÍFICO E FENOMÊNICO DE GRACELI.
- X
- CATEGORIAS DE GRACELI
-
T l T l E l Fl dfG l
N l El tf l
P l Ml tfefel
Ta l Rl
Ll
D
TRANSFORMAÇÕES ⇔ INTERAÇÕES ⇔ TUNELAMENTO ⇔ EMARANHAMENTO ⇔ CONDUTIVIDADE ⇔ DIFRAÇÕES ⇔ estrutura eletrônica, spin, radioatividade, ABSORÇÕES E EMISSÕES INTERNA ⇔ Δ de temperatura e dinâmicas, transições de estados quântico Δ ENERGIAS, ⇔ Δ MASSA , ⇔ Δ CAMADAS ORBITAIS , ⇔ Δ FENÔMENOS , ⇔ Δ DINÂMICAS, ⇔ Δ VALÊNCIAS, ⇔ Δ BANDAS, Δ entropia e de entalpia, E OUTROS.
+ FUNÇÃO TÉRMICA.
, + FUNÇÃO DE TUNELAMENTO QUÂNTICO.
+ FUNÇÃO DE CONDUÇÃO ELETROMAGNÉTICA
X
V [R] [MA] = Δe,M, Δf, ΔE, Δt, Δi, ΔT, ΔC, ΔE,ΔA, ΔD, ΔM......ΤDCG XΔe, ΔM, Δf, ΔE, Δt, Δi, ΔT, ΔC, ΔE,ΔA, ΔD, ΔM...... =
xsistema de dez dimensões de Graceli +DIMENSÕES EXTRAS DO SISTEMA DECADIMENSIONAL E CATEGORIAL GRACELI.[como, spins, posicionamento, afastamento, ESTRUTURA ELETRÔNICA, e outras já relacionadas]..- DIMENSÕES DE FASES DE ESTADOS DE TRANSIÇÕES DE GRACELI.xsistema de transições de estados, e estados de Graceli, fluxos aleatórios quântico, potencial entrópico e de entalpia. [estados de transições de fases de estados de estruturas, quântico, fenomênico, de energias, e dimensional [sistema de estados de Graceli].x
número atômico, estrutura eletrônica, níveis de energia
- TEMPO ESPECÍFICO E FENOMÊNICO DE GRACELI.
- X
- CATEGORIAS DE GRACELI
- T l T l E l Fl dfG lN l El tf lP l Ml tfefelTa l RlLl
Processo estocástico
Dentro da teoria das probabilidades, um processo estocástico é uma família de variáveis aleatórias representando a evolução de um sistema de valores com o tempo. É a contraparte probabilística de um processo determinístico. Ao invés de um processo que possui um único modo de evoluir, como nas soluções de equações diferenciais ordinárias, por exemplo, em um processo estocástico há uma indeterminação: mesmo que se conheça a condição inicial, existem várias, por vezes infinitas, direções nas quais o processo pode evoluir.
Em casos de tempo discreto, em oposição ao tempo contínuo, o processo estocástico é uma sequência de variáveis aleatórias, como por exemplo uma cadeia de Markov. As variáveis correspondentes aos diversos tempos podem ser completamente diferentes, o único requisito é que esses valores diferentes estejam todos no mesmo espaço, isto é, no contradomínio da função. Uma abordagem possível é modelar as variáveis aleatórias como funções aleatórias de um ou vários argumentos determinísticos, na maioria dos casos, em relação ao parâmetro do tempo. Apesar de os valores aleatórios de um processo estocástico em momentos diferentes parecerem variáveis aleatórias independentes, nas situações mais comuns, eles exibem uma complexa dependência estatística.
Exemplo de processos estocásticos incluem flutuações nos mercados de ações e nas taxas de câmbio, dados médicos como temperatura, pressão sanguínea e variações nos potenciais elétricos do cérebro registrados em um eletroencefalograma, fluxo turbulento de um líquido ou gás, variações no campo magnético da Terra, mudanças aleatórias no nível de sinais de rádio sintonizados na presença de distúrbios meteorológicos, flutuação da corrente em um circuito elétrico na presença de ruído térmico, movimentos aleatórios como o movimento Browniano ou passeios aleatórios, entre outros.
Uma generalização de um processo estocástico, o campo aleatório é definido ao permitir que as variáveis sejam parametrizadas por membros de um espaço topológico ao invés do tempo. Exemplos de campos aleatórios incluem imagens de estática, topografia, ondas de superfície e variações na composição de um material heterogêneo.
Dentro da teoria das probabilidades, um processo estocástico é uma família de variáveis aleatórias representando a evolução de um sistema de valores com o tempo. É a contraparte probabilística de um processo determinístico. Ao invés de um processo que possui um único modo de evoluir, como nas soluções de equações diferenciais ordinárias, por exemplo, em um processo estocástico há uma indeterminação: mesmo que se conheça a condição inicial, existem várias, por vezes infinitas, direções nas quais o processo pode evoluir.
Em casos de tempo discreto, em oposição ao tempo contínuo, o processo estocástico é uma sequência de variáveis aleatórias, como por exemplo uma cadeia de Markov. As variáveis correspondentes aos diversos tempos podem ser completamente diferentes, o único requisito é que esses valores diferentes estejam todos no mesmo espaço, isto é, no contradomínio da função. Uma abordagem possível é modelar as variáveis aleatórias como funções aleatórias de um ou vários argumentos determinísticos, na maioria dos casos, em relação ao parâmetro do tempo. Apesar de os valores aleatórios de um processo estocástico em momentos diferentes parecerem variáveis aleatórias independentes, nas situações mais comuns, eles exibem uma complexa dependência estatística.
Exemplo de processos estocásticos incluem flutuações nos mercados de ações e nas taxas de câmbio, dados médicos como temperatura, pressão sanguínea e variações nos potenciais elétricos do cérebro registrados em um eletroencefalograma, fluxo turbulento de um líquido ou gás, variações no campo magnético da Terra, mudanças aleatórias no nível de sinais de rádio sintonizados na presença de distúrbios meteorológicos, flutuação da corrente em um circuito elétrico na presença de ruído térmico, movimentos aleatórios como o movimento Browniano ou passeios aleatórios, entre outros.
Uma generalização de um processo estocástico, o campo aleatório é definido ao permitir que as variáveis sejam parametrizadas por membros de um espaço topológico ao invés do tempo. Exemplos de campos aleatórios incluem imagens de estática, topografia, ondas de superfície e variações na composição de um material heterogêneo.
Definição formal e propriedades básicas[editar | editar código-fonte]
Definição[editar | editar código-fonte]
Dado um espaço de probabilidade e um espaço mensurável , um processo estocástico de valor S é um conjunto de variáveis aleatórias de valor S em , indexadas por um conjunto totalmente ordenado T ("tempo"). Isto é, um processo estocástico X é um conjunto
- X
Dado um espaço de probabilidade e um espaço mensurável , um processo estocástico de valor S é um conjunto de variáveis aleatórias de valor S em , indexadas por um conjunto totalmente ordenado T ("tempo"). Isto é, um processo estocástico X é um conjunto
- X
FUNÇÃO GERAL GRACELI DA TRANS- INDETERMINALIDADE PELO SDCTIE GRACELI
FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI. E DE ESTADOS TRANSICIONAIS
onde cada é uma variável de aleatória de valor S em . O espaço S é então chamado de espaço de estados do processo.
onde cada é uma variável de aleatória de valor S em . O espaço S é então chamado de espaço de estados do processo.
Distribuições de dimensões finitas[editar | editar código-fonte]
Seja X um processo estocástico de valor S. Para cada sequência finita de , o k-ésimo é uma variável aleatória tendo valores em . A distribuição
X
Seja X um processo estocástico de valor S. Para cada sequência finita de , o k-ésimo é uma variável aleatória tendo valores em . A distribuição
X
FUNÇÃO GERAL GRACELI DA TRANS- INDETERMINALIDADE PELO SDCTIE GRACELI
FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI. E DE ESTADOS TRANSICIONAIS
dessa variável aleatória é uma probabilidade medida em . Isso é chamado uma distribuição finita de X. Sob restrições topológicas adequadas, uma coleção “consistente” de distribuições de dimensões finitas pode ser usada para definir um processo estocástico.
dessa variável aleatória é uma probabilidade medida em . Isso é chamado uma distribuição finita de X. Sob restrições topológicas adequadas, uma coleção “consistente” de distribuições de dimensões finitas pode ser usada para definir um processo estocástico.
História[editar | editar código-fonte]
Estudos rigorosos sobre processos estocásticos começaram no final do Século XIX para ajudar a entender o mercado financeiro e o movimento Browniano. A primeira pessoa a descrever a matemática por trás do movimento Browniano foi Thorvald N. Thiele em um artigo sobre o método dos mínimos quadrados publicado em 1880. De modo independente, Louis Bachelier publicou em 1900 sua tese de PhD “A teoria da especulação”, em que ele apresenta uma análise estocástica dos mercados de ações e de opções. Albert Einstein, em um artigo de 1905, e Marian Smoluchowski, em 1906, trouxeram a solução do problema para a atenção dos físicos, apresentando-a como um modo indireto de confirmar a existência de átomos e moléculas. Suas equações descrevendo um movimento Browniano foram subsequentemente verificadas pelo trabalho experimental de Jean Baptiste Perrin em 1908.
Um trecho do artigo de Einstein descreve os fundamentos de um modelo estocástico:
Estudos rigorosos sobre processos estocásticos começaram no final do Século XIX para ajudar a entender o mercado financeiro e o movimento Browniano. A primeira pessoa a descrever a matemática por trás do movimento Browniano foi Thorvald N. Thiele em um artigo sobre o método dos mínimos quadrados publicado em 1880. De modo independente, Louis Bachelier publicou em 1900 sua tese de PhD “A teoria da especulação”, em que ele apresenta uma análise estocástica dos mercados de ações e de opções. Albert Einstein, em um artigo de 1905, e Marian Smoluchowski, em 1906, trouxeram a solução do problema para a atenção dos físicos, apresentando-a como um modo indireto de confirmar a existência de átomos e moléculas. Suas equações descrevendo um movimento Browniano foram subsequentemente verificadas pelo trabalho experimental de Jean Baptiste Perrin em 1908.
Um trecho do artigo de Einstein descreve os fundamentos de um modelo estocástico:
Construção[editar | editar código-fonte]
Na axiomatização da teoria da probabilidade por meio da teoria da medida, o problema é construir um sigma-álgebra de subconjuntos mensuráveis do espaço de todas as funções, e então colocar nele uma medida finita. Para isso, normalmente se utiliza um método chamado extensão de Kolmogorov.[3]
Na axiomatização da teoria da probabilidade por meio da teoria da medida, o problema é construir um sigma-álgebra de subconjuntos mensuráveis do espaço de todas as funções, e então colocar nele uma medida finita. Para isso, normalmente se utiliza um método chamado extensão de Kolmogorov.[3]
Extensão de Kolmogorov[editar | editar código-fonte]
A extensão de Kolmogorov diz que, assumindo que um espaço de probabilidade no espaço de todas as funções existe, então ele pode ser usado para especificar a distribuição de probabilidade conjunta das variáveis aleatórias de dimensões finitas . Agora, a partir dessa distribuição de probabilidade n-dimensional se pode deduzir uma distribuição marginal (n − 1)-dimensional para . Note-se que a condição de compatibilidade óbvia, isto é, que a distribuição marginal esteja na mesma classe que a derivada de um processo estocástico completo, não é um requisito. Tal condição só se faz presente se, por exemplo, for um processo de Wiener, no qual as marginais são todas distribuições gaussianas de classe exponencial, mas não, em geral, para todos os processos estocásticos. Quando essa condição é expressa em termos de densidades de probabilidades, o resultado é chamado de equação de Chapman-Kolmogorov. O teorema da extensão de Kolmogorov garante a existência de um processo estocástico com uma dada família de distribuições de probabilidade de dimensões finitas satisfazendo a condição de compatibilidade de Chapman-Kolmogorov.
A extensão de Kolmogorov diz que, assumindo que um espaço de probabilidade no espaço de todas as funções existe, então ele pode ser usado para especificar a distribuição de probabilidade conjunta das variáveis aleatórias de dimensões finitas . Agora, a partir dessa distribuição de probabilidade n-dimensional se pode deduzir uma distribuição marginal (n − 1)-dimensional para . Note-se que a condição de compatibilidade óbvia, isto é, que a distribuição marginal esteja na mesma classe que a derivada de um processo estocástico completo, não é um requisito. Tal condição só se faz presente se, por exemplo, for um processo de Wiener, no qual as marginais são todas distribuições gaussianas de classe exponencial, mas não, em geral, para todos os processos estocásticos. Quando essa condição é expressa em termos de densidades de probabilidades, o resultado é chamado de equação de Chapman-Kolmogorov. O teorema da extensão de Kolmogorov garante a existência de um processo estocástico com uma dada família de distribuições de probabilidade de dimensões finitas satisfazendo a condição de compatibilidade de Chapman-Kolmogorov.
Separabilidade[editar | editar código-fonte]
Lembrando que na axiomatização de Kolmogorov, conjuntos mensuráveis são conjuntos que tem uma probabilidade, isto é, os conjuntos correspondem a questões sim/não que tem uma resposta probabilística.
A extensão de Kolmogorov começa ao declarer serem mensuráveis todos os conjuntos de funções onde uma quantidade finita de coordenadas são restringidas para um subconjunto mensurável de . Em outras palavras, se uma questão sim/não sobre f pode ser respondida olhando os valores de no máximo um número finito de coordenadas, então ele tem uma resposta probabilística.
Em teoria das medidas, se você tem um conjunto infinito contável de conjuntos mensuráveis, então a união e intersecção de todos eles é um conjunto mensurável. Para esses propósitos, isso significa que uma questão sim/não que dependa de diversas coordenadas contáveis tem uma resposta probabilística.
A extensão de Kolmogorov permite construir processos estocásticos com distribuições de dimensão finita com uma certa arbitrariedade. Além disso, qualquer questão que se possa fazer sobre uma sequência tem uma resposta probabilística quando questionado sobre uma sequência aleatória. Mas certas questões sobre funções em um domínio contínuo não tem uma resposta probabilística, por depender de uma quantidade incontável de valores da função. Diversos conceitos de cálculo são desse tipo, como continuidade e diferenciabilidade.
Uma solução para esse problema é exigir que o processo estocástico seja separável. Em outras palavras, que exista um conjunto contável de coordenadas cujos valores determinam totalmente a função aleatória f.
O teorema da continuidade de Komlogorov garante que processos que satisfaçam certas restrições no momento dos seus incrementos terão modificações contínuas e são, portanto, separáveis.
Lembrando que na axiomatização de Kolmogorov, conjuntos mensuráveis são conjuntos que tem uma probabilidade, isto é, os conjuntos correspondem a questões sim/não que tem uma resposta probabilística.
A extensão de Kolmogorov começa ao declarer serem mensuráveis todos os conjuntos de funções onde uma quantidade finita de coordenadas são restringidas para um subconjunto mensurável de . Em outras palavras, se uma questão sim/não sobre f pode ser respondida olhando os valores de no máximo um número finito de coordenadas, então ele tem uma resposta probabilística.
Em teoria das medidas, se você tem um conjunto infinito contável de conjuntos mensuráveis, então a união e intersecção de todos eles é um conjunto mensurável. Para esses propósitos, isso significa que uma questão sim/não que dependa de diversas coordenadas contáveis tem uma resposta probabilística.
A extensão de Kolmogorov permite construir processos estocásticos com distribuições de dimensão finita com uma certa arbitrariedade. Além disso, qualquer questão que se possa fazer sobre uma sequência tem uma resposta probabilística quando questionado sobre uma sequência aleatória. Mas certas questões sobre funções em um domínio contínuo não tem uma resposta probabilística, por depender de uma quantidade incontável de valores da função. Diversos conceitos de cálculo são desse tipo, como continuidade e diferenciabilidade.
Uma solução para esse problema é exigir que o processo estocástico seja separável. Em outras palavras, que exista um conjunto contável de coordenadas cujos valores determinam totalmente a função aleatória f.
O teorema da continuidade de Komlogorov garante que processos que satisfaçam certas restrições no momento dos seus incrementos terão modificações contínuas e são, portanto, separáveis.
Filtração[editar | editar código-fonte]
Dado um espaço de probabilidade , uma filtração é uma coleção crescente de sigma-álgebras em , , indexados por um conjunto totalmente ordenado , e limitado acima por , ou seja, para s,t com s < t,
- .
- X
Dado um espaço de probabilidade , uma filtração é uma coleção crescente de sigma-álgebras em , , indexados por um conjunto totalmente ordenado , e limitado acima por , ou seja, para s,t com s < t,
- .
- X
FUNÇÃO GERAL GRACELI DA TRANS- INDETERMINALIDADE PELO SDCTIE GRACELI
FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI. E DE ESTADOS TRANSICIONAIS
Um processo estocástico no mesmo tempo dado é dito como adaptado a filtração se, para cada t , é -mensurável.[4]
Um processo estocástico no mesmo tempo dado é dito como adaptado a filtração se, para cada t , é -mensurável.[4]
Filtração natural[editar | editar código-fonte]
Dado um processo estocástico , a filtração natural para (ou induzida para) esse processo é a filtração na qual é gerado por todos os valores de até o tempo s = t, isto é .X
Dado um processo estocástico , a filtração natural para (ou induzida para) esse processo é a filtração na qual é gerado por todos os valores de até o tempo s = t, isto é .X
FUNÇÃO GERAL GRACELI DA TRANS- INDETERMINALIDADE PELO SDCTIE GRACELI
FUNÇÃO FUNDAMENTAL E GERAL DO SISTEMA [SDCTIE GRACELI] DE INTERAÇÕES, TRANSFORMAÇÕES EM CADEIAS, DECADIMENSIONAL E CATEGORIAL GRACELI. E DE ESTADOS TRANSICIONAIS
Um processo estocástico é sempre adaptado à sua filtração natural.
Um processo estocástico é sempre adaptado à sua filtração natural.
Classificação[editar | editar código-fonte]
Processos estocásticos podem ser classificados de acordo com a cardinalidade dos seus conjuntos indexados, normalmente interpretados como o tempo, e o espaço de estado.
Processos estocásticos podem ser classificados de acordo com a cardinalidade dos seus conjuntos indexados, normalmente interpretados como o tempo, e o espaço de estado.
Tempo discreto e espaço de estado discreto[editar | editar código-fonte]
Se ambos e pertencerem a , o conjunto de números naturais, então temos modelos que levam a uma cadeia de Markov. Por exemplo:
(a) Se significa o bit (0 ou 1) na posição de uma sequência de bits transmitidos, então pode ser modelado como uma cadeia de Markov de dois estados. Isso leva ao algoritmo de Viterbi, para correção de erros em transmissão de dados.
(b) Se representa o genótipo combinado de um casal reprodutor na -ésima geração em um modelo de endocruzamento, pode se mostrar que a proporção de indivíduos heterozigóticos na população se aproxima de zero quando tende ao ∞.[5]
Se ambos e pertencerem a , o conjunto de números naturais, então temos modelos que levam a uma cadeia de Markov. Por exemplo:
(a) Se significa o bit (0 ou 1) na posição de uma sequência de bits transmitidos, então pode ser modelado como uma cadeia de Markov de dois estados. Isso leva ao algoritmo de Viterbi, para correção de erros em transmissão de dados.
(b) Se representa o genótipo combinado de um casal reprodutor na -ésima geração em um modelo de endocruzamento, pode se mostrar que a proporção de indivíduos heterozigóticos na população se aproxima de zero quando tende ao ∞.[5]
Tempo contínuo e espaço de estado contínuo[editar | editar código-fonte]
O paradigma de processo estocástico contínuo é o do processo de Wiener. Na sua forma original o problema tratava de uma partícula flutuando em uma superfície líquida, recebendo “impulsos” das moléculas do líquido. A partícula é então vista como sendo sujeito a forças aleatórias que, uma vez que as moléculas são muito pequenas e próximas, é tratado como contínuo, e como a partícula está restrita à superfície do líquido pela tensão superficial, é em cada ponto do tempo um vetor paralelo à superfície. Assim, a força aleatória é descrita por um processo estocástico de dois componentes. Duas variáveis aleatórias de valores reais estão associadas a cada ponto do conjunto indexado, o tempo, com o domínio das duas variáveis aleatórias sendo R, dando os componentes x e y da força (notando que uma vez que o líquido é visto como homogêneo, a força é independente das coordenadas espaciais). Um tratamento de movimento Browniano normalmente também inclui o efeito da viscosidade, resultando em uma equação de movimento conhecida como equação de Langevin.[6]
O paradigma de processo estocástico contínuo é o do processo de Wiener. Na sua forma original o problema tratava de uma partícula flutuando em uma superfície líquida, recebendo “impulsos” das moléculas do líquido. A partícula é então vista como sendo sujeito a forças aleatórias que, uma vez que as moléculas são muito pequenas e próximas, é tratado como contínuo, e como a partícula está restrita à superfície do líquido pela tensão superficial, é em cada ponto do tempo um vetor paralelo à superfície. Assim, a força aleatória é descrita por um processo estocástico de dois componentes. Duas variáveis aleatórias de valores reais estão associadas a cada ponto do conjunto indexado, o tempo, com o domínio das duas variáveis aleatórias sendo R, dando os componentes x e y da força (notando que uma vez que o líquido é visto como homogêneo, a força é independente das coordenadas espaciais). Um tratamento de movimento Browniano normalmente também inclui o efeito da viscosidade, resultando em uma equação de movimento conhecida como equação de Langevin.[6]
Tempo discreto e espaço de estado contínuo[editar | editar código-fonte]
Se o conjunto indexado do processo é N (os números naturais), e a imagem é R (os números reais), existem questões sobre a sequência de amostras de um processo {Xi}i ∈ N, onde uma amostra é {Xi(ω)}i ∈ N.
- Qual é a probabilidade de que cada sequência de amostras é limitada? bounded?
- Qual a probabilidade de que cada sequência de amostras é monotônica?
- Qual a probabilidade de que cada sequência de amostras tem um limite conforme o índice tende ao ∞?
- Qual a probabilidade de que a série obtida de uma sequência de amostras de convirja?
- Qual é a distribuição de probabilidade da soma?
As principais aplicações de modelos estocásticos de tempo discreto e estado contínuo incluem Monte Carlo via cadeia de Markov (MCMC) e a análise de séries temporais.
Se o conjunto indexado do processo é N (os números naturais), e a imagem é R (os números reais), existem questões sobre a sequência de amostras de um processo {Xi}i ∈ N, onde uma amostra é {Xi(ω)}i ∈ N.
- Qual é a probabilidade de que cada sequência de amostras é limitada? bounded?
- Qual a probabilidade de que cada sequência de amostras é monotônica?
- Qual a probabilidade de que cada sequência de amostras tem um limite conforme o índice tende ao ∞?
- Qual a probabilidade de que a série obtida de uma sequência de amostras de convirja?
- Qual é a distribuição de probabilidade da soma?
As principais aplicações de modelos estocásticos de tempo discreto e estado contínuo incluem Monte Carlo via cadeia de Markov (MCMC) e a análise de séries temporais.
Tempo contínuo e espaço de estado discreto[editar | editar código-fonte]
De maneira similar, se o espaço indexado I é um intervalo finito ou infinito, se pode perguntar sobre os percursos da amostra {Xt(ω)}t ∈ I
- Qual a probabilidade de que ele seja limitado ou integrável?
- Qual a probabilidade de que tenha um limite no ∞?
- Qual a distribuição de probabilidade da integral?
De maneira similar, se o espaço indexado I é um intervalo finito ou infinito, se pode perguntar sobre os percursos da amostra {Xt(ω)}t ∈ I
- Qual a probabilidade de que ele seja limitado ou integrável?
- Qual a probabilidade de que tenha um limite no ∞?
- Qual a distribuição de probabilidade da integral?