
|
Autor |
Oliveira, Vandemir F. (1986)
|
Título |
Análise de dados sísmicos registrados com grandes afastamentos entre a fonte e os receptores.
|
Data
da aprovação |
18.04.1986
|
Banca
examinadora |
Dr. Paul L. Stoffa (Orientador), Dr. Wulf F. Massell, Dr. Tadeusz J. Ulrych.
|
Resumo |
Com as recentes evoluçães obtidas nas
técnicas de
aquisição e na instrumentação
sísmica, tem sido
possível registrar dados sísmicos com afastamentos cada
vez
maiores entre a fonte e os receptores. Como conseqüência
disto há um
enriquecimento no conteúdo de informaçães, com o
registro de grande
quantidade de eventos pós-críticos. No entanto estas
informaçães adicionais obtidas a custo de um maior
investimento são
usualmente descartadas durante o processamento convencional por se
situarem na zona de silenciamento dos traços. Isto ocorre porque
as
técnicas de tratamento de dados normalmente usadas nos centros de
processamento se baseiam na suposição de uma
trajetória
hiperbólica para o tempo duplo de reflexão em
função da
distância, o que é uma aproximação
válida somente para pequenos
afastamentos entre fonte e receptor. Neste trabalho procura-se mostrar
que
o processamento dos dados no domínio do tempo de
interseção e do
parâmetro do raio, domínio $τ$-p, é uma boa
alternativa para se
analisar dados obtidos com grandes ângulos de incidência
uma vez que
neste domínio as reflexães pré e
pós-críticas bem como as
refraçães são tratadas indistintamente. Os
principais itens
abordados foram a análise de velocidade, a
correção do NMO e o
empilhamento horizontal por faixas de parâmetros de raio. As
análises
de velocidade foram feitas usando o método $τ$-soma e o
método da
correção exata do NMO e durante o trabalho mostrou-se que
o método
$τ$-soma original pode ser suavizado se durante o cálculo
for feita uma
média ponderada por uma cossenoide, das
contribuiçães parciais dos
tempos duplos normais de cada evento. A análise de velocidade, a
correção do NMO e o empilhamento horizontal foram feitos
diretamente
sobre os dados organizados em pontos de tiro e as seçães
finais
resultantes mostram que usando bem menos traços no empilhamento
pode-se
obter uma seção de qualidade igual ou superior à
da seção
convencional bastando para isto que se escolha a faixa de
parâmetros de
raio que dê uma melhor relação sinal/ruído.
Além disso,
informaçães a respeito da refletividade em
função do ângulo de
incidência podem ser preservadas, o que é uma importante
ferramenta
para posteriores interpretaçães, não
disponível quando se usa
o método convencional.
|
Abstract |
In recent years advances and developments in
seismic instrumentation and acquisition techniques have made it possible
to acquire seismic data with larger source-receiver offsets.
Consequently,
both pre and post-critical events and refractions will be recorded.
However, this additional information that is obtained will usually be
eliminated during conventional data processing. This occurs because the
technique most commonly used in seismic data processing are based upon
the
hyperbolic traveltime assumption. But, this assumption which describes
traveltime as function of the source-receiver offset is valid only for
the
near offset traces. In this work the domain of intercept time and ray
parameter, $τ$-p domain,
is used as an alternative to process large offset
seismic data. In this domain there are no significant distinctions in
describing seismic traveltimes for pre and post-critical reflections
and/or
refractions. One seismic line from the Alto Amazonas basin is
completely processed in the $τ$-p domain and the most important
aspects of
the processing are analysed: interval velocity analysis; the NMO
corretion; and horizontal stacking using groups of adjacents ray
parameter traces. The methods used for the velocity analysis are the
$τ$-sum
method followed by the $τ$-p exact normal move-out. The $τ$-sum
method is
improved by smoothing and averaging the partial contributions of the
two-way normal time using a convenient number of samples followed by
weighting with a cosine function. The velocity analysis, the NMO
correction and the stacking are done directly on the original shot
points
gathers and not on CMP gathers. The final processed $τ$-p record
sections
when compared with that obtained by the conventional data processing
show
that it is possible to get results similar or even better using less
traces
during the stacking process by choosing the range of p's that give the
best signal to noise ratio. In addition, information about the
reflectivity as a function of angle of incidence can be preserved as a
further interpretative tool, which is not possible using conventional
method.
|
|