Autor
Oliveira, Vandemir F. (1986)
Título
Análise de dados sísmicos registrados com grandes afastamentos entre a fonte e os receptores.
Data da aprovação
18.04.1986
Banca examinadora
Dr. Paul L. Stoffa (Orientador), Dr. Wulf F. Massell, Dr. Tadeusz J. Ulrych.
Resumo

Com as recentes evoluçães obtidas nas técnicas de aquisição e na instrumentação sísmica, tem sido possível registrar dados sísmicos com afastamentos cada vez maiores entre a fonte e os receptores. Como conseqüência disto há um enriquecimento no conteúdo de informaçães, com o registro de grande quantidade de eventos pós-críticos. No entanto estas informaçães adicionais obtidas a custo de um maior investimento são usualmente descartadas durante o processamento convencional por se situarem na zona de silenciamento dos traços. Isto ocorre porque as técnicas de tratamento de dados normalmente usadas nos centros de processamento se baseiam na suposição de uma trajetória hiperbólica para o tempo duplo de reflexão em função da distância, o que é uma aproximação válida somente para pequenos afastamentos entre fonte e receptor. Neste trabalho procura-se mostrar que o processamento dos dados no domínio do tempo de interseção e do parâmetro do raio, domínio $τ$-p, é uma boa alternativa para se analisar dados obtidos com grandes ângulos de incidência uma vez que neste domínio as reflexães pré e pós-críticas bem como as refraçães são tratadas indistintamente. Os principais itens abordados foram a análise de velocidade, a correção do NMO e o empilhamento horizontal por faixas de parâmetros de raio. As análises de velocidade foram feitas usando o método $τ$-soma e o método da correção exata do NMO e durante o trabalho mostrou-se que o método $τ$-soma original pode ser suavizado se durante o cálculo for feita uma média ponderada por uma cossenoide, das contribuiçães parciais dos tempos duplos normais de cada evento. A análise de velocidade, a correção do NMO e o empilhamento horizontal foram feitos diretamente sobre os dados organizados em pontos de tiro e as seçães finais resultantes mostram que usando bem menos traços no empilhamento pode-se obter uma seção de qualidade igual ou superior à da seção convencional bastando para isto que se escolha a faixa de parâmetros de raio que dê uma melhor relação sinal/ruído. Além disso, informaçães a respeito da refletividade em função do ângulo de incidência podem ser preservadas, o que é uma importante ferramenta para posteriores interpretaçães, não disponível quando se usa o método convencional.

Abstract

In recent years advances and developments in seismic instrumentation and acquisition techniques have made it possible to acquire seismic data with larger source-receiver offsets. Consequently, both pre and post-critical events and refractions will be recorded. However, this additional information that is obtained will usually be eliminated during conventional data processing. This occurs because the technique most commonly used in seismic data processing are based upon the hyperbolic traveltime assumption. But, this assumption which describes traveltime as function of the source-receiver offset is valid only for the near offset traces. In this work the domain of intercept time and ray parameter, $τ$-p domain, is used as an alternative to process large offset seismic data. In this domain there are no significant distinctions in describing seismic traveltimes for pre and post-critical reflections and/or refractions. One seismic line from the Alto Amazonas basin is completely processed in the $τ$-p domain and the most important aspects of the processing are analysed: interval velocity analysis; the NMO corretion; and horizontal stacking using groups of adjacents ray parameter traces. The methods used for the velocity analysis are the $τ$-sum method followed by the $τ$-p exact normal move-out. The $τ$-sum method is improved by smoothing and averaging the partial contributions of the two-way normal time using a convenient number of samples followed by weighting with a cosine function. The velocity analysis, the NMO correction and the stacking are done directly on the original shot points gathers and not on CMP gathers. The final processed $τ$-p record sections when compared with that obtained by the conventional data processing show that it is possible to get results similar or even better using less traces during the stacking process by choosing the range of p's that give the best signal to noise ratio. In addition, information about the reflectivity as a function of angle of incidence can be preserved as a further interpretative tool, which is not possible using conventional method.