A Informação como propiciadora de Sistemas Complexos

woman-163426_1920No presente artigo buscamos compreender os conceitos de Sistemas, Auto-Organização e Informação para traçar uma possibilidade de compreensão da informação enquanto motor da chamada Auto-Organização Secundária.

Na primeira seção tratamos dos conceitos de Sistemas e Auto-Organização, para nos situarmos diante da complexidade dos termos que envolvem diversas perspectivas de tratamento. Utilizamo-nos basicamente da Teoria Geral dos Sistemas e da Teoria da Auto-Organização para esclarecê-los.
Na segunda seção apresentamos, a partir da Teoria da Informação, uma perspectiva não-antropomórfica da Informação com o objetivo de torná-la um conceito matematizado e, enquanto tal, possível de ser aplicado para a análise de sistemas mais complexos e organizados.
Desse modo, nossas considerações finais buscam unir as duas seções anteriores apontando para a compreensão da informação enquanto motor que inicia o processo de auto-organização secundária.

1. Sistemas e Auto-Organização

1.1. Sistemas
Em concordância com D’Ottaviano e Bresciani Filho (2000, p. 286), consideramos que sistema é um conjunto não vazio de elementos que mantém relações entre si (D’Ottaviano e Bresciani Filho, 2000). Essa definição está de acordo com as concepções de Bertalanffy de que um sistema é conhecido não somente pela soma de todas as carac-terísticas dos elementos que o compõem, mas também das relações que estes elementos têm entre si, dessa forma um sistema pode ter o todo maior — ou mesmo menor — que a soma de suas partes.
De acordo com Bertalanffy (1973, p. 83), o conhecimento da totalidade dos elementos de um sistema e de todas as relações envolvidas entre eles pode nos dar o comportamento do sistema.
Essa característica do sistema de ser maior ou menor que a soma das partes que o formam é chamada por D’Ottaviano e Bresciani Filho (2000, p. 286) de sinergia do sistema. Esta sinergia será positiva caso o sistema se apresente como maior que a soma das partes que o integram e negativa, em caso contrário.
Diante dessa concepção de sistema, nos colocamos a seguinte pergunta: Como caracterizar “elementos” e “relações”? Quanto aos elementos, segundo Pessoa Jr. (2000, p. 130) temos que “[…] um elemento é uma entidade primitiva que a cada instante está em um dentre vários estados possíveis ou, colocado de outra forma, possui um dentre vários atributos possíveis […]”.
Quanto às relações, Pessoa Jr. (2000, p. 130), as caracteriza pelas alterações de estado dos elementos condicionadas pelas alterações de estado de outro elemento no mesmo instante de tempo ou num instante posterior.
Tais relações podem ser apenas entre os elementos do sistema. Nesse caso, denominamos sistema fechado. Um sistema fechado não mantém nenhum tipo de relação com o ambiente externo a ele. Os sistemas fechados são sistemas ideais que servem de modelos e não são encontrados, enquanto tais, na natureza.
No caso de um sistema aberto, os elementos mantêm relações entre si e, também, relações com o ambiente onde está situado. Os sistemas encontrados na natureza são todos sistemas abertos.
Dada a característica do sistema ser fechado ou aberto, seus elementos, segundo D’Ottaviano e Bresciani Filho (2000, p. 285), podem ser classificados como segue: (1) de importação (servindo como entrada para o sistema); (2) de transformação interna e (3) de exportação (servindo como saída do sistema). A classificação de importação e exportação caracteriza o sistema aberto, pois são elas que propiciam a troca com o meio.
Tal caracterização, de elementos e relações, é importante, pois para a Teoria Geral dos Sistemas, um sistema é identificado por sua estrutura ou organização e não apenas pela somatória de seus elementos.

1.2. Auto-Organização
Uma das características fundamentais de um sistema é a existência de relações entre seus elementos. De forma que a alteração de estado de um dos elementos condicione a alte-ração de estado de outros elementos. Segundo Ashby (1962, pp. 255-256), essa condici-onalidade é a principal característica da organização de um sistema.
Desse modo, a relação condicional entre estados de elementos é a condição necessária à organização do sistema. A organização diferencia um sistema de um aglomerado aleatório de elementos, pois sem organização não haveria sistema. Segundo Pessoa Jr. (2000, pp. 132-133) “[…] não teria sentido falar de um ‘sistema sem nenhuma organização’. Se um sistema fosse completamente não-organizado, não haveria relações entre seus elementos […]”.
A partir dessas noções, podemos agora introduzir a noção de Auto-Organização. Segundo Debrun (1996, p.13), a auto-organização ocorre quando elementos aleatórios passam a ter uma interação que antes não havia, sem que algo atue como supervisor onipotente dessa interação. Interação essa que ou dá origem a um novo sistema, ou complexifica um sistema existente.
Essa definição envolve duas modalidades de auto-organização. A primeira modalidade, chamada por Debrun (1996) de Auto-Organização Primária, que ocorre quando a inte-gração entre os elementos aleatórios dá origem a um novo sistema.
Ashby (1962, p. 266) compreende esse primeiro sentido de auto-organização como o trabalho de reunir, num sistema, elementos que antes se encontravam condicionalmente separados, como ele mesmo afirma: “[…] Do mesmo modo um sistema é ‘auto-organizado’ no sentido que ele muda de ‘partes separadas’ para ‘partes unidas’ […]”. Broens e Gonzales (s.d., p. 5) acrescentam que “Nesta primeira fase, interações espontâneas podem dar lugar a formas novas de organização […]”, ou seja, por mais que os pa-drões gerados sejam simples e instáveis, é uma característica da auto-organização primária, dar início a novos sistemas organizados.
A segunda modalidade, chamada por Debrun (1996, p. 10) de Auto-Organização Secundária ocorre quando a interação entre os elementos de um sistema já existente propicia uma complexificação do mesmo.
É o que Debrun (1996, p. 13), chama de reestruturação por complexificação. Ashby (1962, p. 267) denomina esse sentido de auto-organização como a decisão do sistema de passar de uma má para uma boa organização a partir de si mesmo, afirma que “[…] este é o caso de um sistema que muda a si mesmo de um mau comportamento para um bom […]”. Assim, temos que a auto-organização secundária, ocorre em sistemas já organizados que buscam uma complexificação maior de suas relações, isso pode ser, caso ocorra com um sistema recém organizado pela auto-organização primária, uma forma de tornar mais complexos e estáveis padrões que no início eram simples e instáveis.

2. A informação numa perspectiva não-antropomórfica
O conceito de informação é um tanto controverso. Desde seu significado de notícia, novidade ou dados até à possibilidade de uma mensagem enviada por diversas vias, se-jam elas materiais ou imateriais, tais como cartas, telegramas, telefone, sinais de rádio, TV ou mesmo pela rede mundial de computadores, que traz uma inovação tecnológica na transmissão de informações como os web sites, e-mails, SMS
Contudo, como bem salientam Pereira Jr. e Gonzáles (1995, p. 255) tais usos manifestam uma compreensão “[…] antropomórfica do termo, entendido como mensagem lingüística, significativa e inédita (para o receptor), transmitida entre seres humanos.” (grifos dos autores). Esta compreensão antropomórfica do conceito de informação nos leva, segundo Pereira Jr. e Gonzales (1995, p. 255), há três características primordiais, a saber:

a. Sua estrita vinculação com a linguagem simbólica humana;
b. Sua estrita vinculação a um significado;
c. Sua estrita vinculação à novidade ou ineditismo.
Entretanto, para usos filosófico-científicos, segundo os autores (1995, p. 256), principalmente no que se refere aos processos cognitivos, deve-se com afinco buscar uma compreensão da noção de informação que não seja antropomórfica.
Apesar da grande dificuldade, é nossa intenção apresentar aqui uma perspectiva não-antropomórfica do conceito de informação para mostrar que a informação é o que inicia ou muitas vezes dá continuidade ao processo de auto-organização secundária.
A informação segundo Shaeffer (2001, p. 281), em sua interpretação de Stonier, é genuinamente um elemento ontológico, juntamente com a energia e a matéria. A informação é uma propriedade fundamental do universo, Shaeffer fundamenta sua tese em Aristóteles, que propunha a ordem como parte integrante da realidade.
Segundo Broens e Gonzáles (s. f., p. 2) Aristóteles, no De Anima, explica a natureza da vida com base em sua doutrina metafísica da natureza geral das coisas. As autoras apresentam a posição aristotélica chamada “hilomorfismo”, ou seja, a doutrina que explicita a existência de cada ente como uma relação dinâmica inseparável entre matéria e forma.
Tem-se, portanto, um primeiro passo em direção à elucidação de uma noção não-antropomórfica de informação, pois enquanto forma da matéria, não a entendemos somente enquanto estritamente vinculada com a linguagem simbólica humana, com o significado ou com a novidade e não há necessidade de um receptor humano para que a forma seja “transmitida” à matéria.
Segundo Zeman (1970, p. 156) a palavra latina informare, que dá origem à nossa palavra informação, tem como acepções: dar forma ou aparência, pôr em forma, formar, criar; representar, apresentar, criar uma idéia ou noção. Assim, Zeman (1970, p. 156) propõem que a informação signifique dar forma a algo, sejam elementos ou partes de um sistema, num sistema classificado, de modo a compreendermos que a informação seja, também, a classificação de símbolos e de suas inter-relações na organização dos sistemas.
Em outras palavras, segundo Zeman (1970, p. 157), a informação é a “[…] qualidade da realidade material de ser organizada (o que representa, igualmente, a qualidade de conservar este estado organizado) […]”, bem como sua capacidade organizacional e classifi-catória de um sistema.
Pereira Jr., Guimarães e Chaves Jr. (1996, p. 244) reforçam tal posição ao afirmarem que a “[…] informação, na ausência de um sistema que a utiliza, consistiria fundamentalmente em um padrão organizacional, ou uma relação, segundo a qual uma dada estrutura está ordenada […]”. Na compreensão desses autores a informação se mantém, mesmo quando não utilizada por algum sistema diferente do sistema fonte de informação, como o padrão organizacional dos sistemas biológicos (sejam eles células, vírus, DNA, ou sistemas mais complexos como os animais ou o ser humano) ou mesmo para outros sistemas que não os biológicos. De modo análogo, Ashby (1962, p. 262) vê a informação inerente à organização, pois esta última pode informar ao observador seu atual estado.
Zeman (1970, p. 157) considera, ainda, a informação enquanto medida da organização, juntamente com os outros dois elementos primordiais do universo (matéria e energia) e as relações quantitativas estabelecidas por esses elementos: “[…] a massa é a medida dos efeitos da gravitação e da força de inércia e a energia a medida do movimento, a informação é, em sentido quantitativo, a medida da organização do objeto material […]”.
Essa concepção de medida quantitativa nos leva, então, a noção de informação enquanto negaentropia. Shannon e Weaver (1949, p. 9) na sua Teoria Matemática da Comunicação apresentam a noção da informação enquanto medida da liberdade de escolha de uma mensagem em relação ao conjunto de mensagens possíveis. Esta unidade de informação que os autores postulam, será chamada de BIT, contração das palavras “Binary Digit”.
A quantidade de informação transportada por uma mensagem corresponderia ao número de perguntas (tendo como resposta apenas “sim” e “não”) para, no conjunto de todas as mensagens possíveis, determinar qual a mensagem enviada. Assim, se é possível apenas duas mensagens, necessitamos de apenas uma pergunta (e.g. “É a mensagem 1?”, se sim, é a mensagem 1, se não, é a mensagem 2). Se há quatro mensagens possíveis, necessita-se de duas perguntas (e.g. “É a mensagem 1 ou a mensagem 2?”; se sim, “É a mensagem 1?”, etc.). De modo geral, com “n” perguntas com resposta “sim” ou “não”, ou ainda 0 ou 1, podemos determinar, a partir da expressão exponencial 2n, o número de mensagens. Ou, tomando o inverso, para um conjunto de “m” mensagens, o número de perguntas com resposta 0 ou 1 é a expressão logarítmica log2 m.
Tal cálculo é semelhante ao da entropia e Shannon e Weaver estão cientes disso. Contu-do a entropia é o grau de desordem de um sistema, e se na Teoria Matemática da Comu-nicação, a medida da informação é correspondente à medida de entropia de um sistema, como podemos dizer então, como feito neste artigo, que a informação é a medida da organização de um sistema. Esse paradoxo se resolve considerando, junto com Bertalan-ffy (1973, p. 68), a medida de informação igual a entropia negativa ou negaentropia do sistema.
3. Considerações Finais: A informação como motor da auto-organização secundária
A partir das considerações efetuadas nas duas primeiras seções é que vamos agora con-siderar a informação como o motor que dá início ao processo de complexificação de um sistema, ou seja, a informação como aquela que propicia a um sistema a sua passagem de uma complexidade menor para uma complexidade maior.
De acordo com a Segunda Leia da Termodinâmica todo sistema físico isolado de seu meio tende a ter sua entropia maximizada, ou seja, um sistema fechado terá uma redução de sua energia livre (i. e., a energia de um sistema que pode realizar algum trabalho no ambiente); e aumento de sua energia térmica (incapaz de realizar trabalho), de forma a afastar-se de uma situação mais organizada para uma situação desorganizada.
Aparentemente, temos aqui um impasse, pois buscamos argumentar que a informação é o motor que inicia o processo de ampliação da organização de um sistema e a Segunda Lei mostra que a natureza de um sistema é tender justamente para a sua total desorganização.
Porém, devemos notar que a Segunda Lei é referente a sistemas isolados, ou seja, sistemas fechados que não mantém relação com o meio. Os sistemas abertos, como vimos na primeira sessão, mantém relações com o meio. Essas relações propiciam — pelos elementos de importação e exportação — uma troca com o meio, que favorece o equilíbrio organizacional do sistema, impedindo a sua desorganização completa.
Assim, podemos concluir, com o que apresentamos na segunda seção sobre a negaentropia como medida da informação, que o aumento na entropia diminui a informação e, conseqüentemente, o inverso também é verdadeiro, ou seja, que o aumento da informação reduz a entropia.
Enquanto elemento redutor da entropia, a informação propicia não somente a manutenção do equilíbrio organizacional do sistema, mas também a possibilidade de aumentar sua complexidade, é a conclusão que chegamos ao analisar a seguinte afirmação de Rapoport (1976, p. 32):
[…] ‘a vida se alimenta de entropia negativa’. O alimento ingerido pelos animais e a luz do sol absorvida pelas plantas são ricos em ‘entropia negativa’ (energia li-vre), e isso supre os organismos vivos não apenas da energia utilizada para manter o processo da vida, mas também dos meios de manter e, mesmo, aumentar a ‘complexidade organizada’ que os caracteriza como sistemas vivos e, assim, resistir à tendência à desorganização, intrínseca à Segunda Lei (grifo nosso).
Logo, a informação fornecida pelo meio (via alimentos e luz solar, no caso dos organismos vivos) é processada pelo sistema e pode dar início ao processo de auto-organização secundária, que como argumentamos nesse artigo, a informação é responsável pelo início do processo, contudo não é reguladora e nem supervisora do mesmo, caracterizando assim um processo de auto-organização.

Revista Kultur – Edição 01 – Setembro/2015

profvicenteVicente E. R. Marcal é Professor Adjunto da Universidade Federal de Rondônia, Doutorando em Psicologia Social pelo IP-USP e Mestre em Filosofia pela UNESP. 


Referências
Ashby, W. R. Principles of the Self-Organizing System. Von Foerster, H. & Zopf, G. W. (orgs.), 1962. Self-Organizing Systems. Londrines: Pergamon.
Broens, M. C. & Gonzales, M. E. Q., s.d. Information, Life and Evolutionary Robots: a systemic approach. Não Publicado.
D’Ottaviano, I. M. L. & Bresciani Filho, e. Conceitos Básicos de Sistêmica. D’Ottaviano I. M. L. & Gonzales, M. E. Q (orgs). 2000. Auto-Organização – Estudos Interdisciplinares. Campinas: UNICAMP, Centro de Lógica, Epistemologia e História da Ciência (Coleção CLE, volume 30).
Debrun, M. A., Idéia de Auto-Organização. Debrun, M. et. all, (orgs.) Auto-Organização Estudos Interdisciplinares, 1996. Campinas: UNICAMP, Centro de Lógi-ca, Epistemologia e História da Ciência (Coleção CLE, volume 18).
Pereira Jr., A. & Gonzales, M. E. Q. Informação, Organização e Linguagem. Évora, F. R. R., Espaço Tempo, 1995. Campinas: UNICAMP, Centro de Lógica, Epistemologia e História da Ciência.
Pereira Jr., et. all. Auto-Organização na Biologia: Nível Ontogenético. Debrun, M. et. all, (org.) Auto-Organização Estudos Interdisciplinares, 1996. Campinas: UNICAMP, Centro de Lógica, Epistemologia e História da Ciência.
Pessoa Jr., O. Medidas Sistêmicas e Organização. Debrun, M. et. all. (orgs.). Auto-Organização – Estudos Interdisciplinares, 2000. Campinas: UNICAMP, Centro de Ló-gica, Epistemologia e História da Ciência. (Coleção CLE, volume 18).
Rapoport, A. Aspectos matemáticos da análise geral dos sistemas. Von Bertallanfy, et. all. Teoria dos Sistemas, 1976. Tradução de Maria da Graça Lustosa Becskeházy, Rio de Janeiro: FGV – Instituto de Documentação Editora Fundação Getúlio Vargas.
Schaffer, R., Informação e Naturalismo Esclarecido: O “Realismo Informacional”. Gon-zales, M. E. Q. et all (org.). Encontro com as Ciências Cognitivas, 2001. Marília: Unesp-Marília-Publicações; São Paulo: Cultura Acadêmica.
Shannon, C. E. & Weaver, W. The Mathematical Theory of Communication, 1949. Ur-bana: University of Illinois Press
Von Bertalanffy, L. Teoria Geral dos Sistemas, 1973. Tradução de Franscisco M. Gui-marães. Petrópolis: Vozes.
Zeman, J. Significado Filosófico da Noção de Informação. Zeman, j., et. all., O Concei-to de Informação na Ciência Contemporânea, 1970. Tradução de Maria Helena Kühner, Rio de Janeiro: Paz e Terra.

Advertisements