Acessos

Nuvens a vista....

quinta-feira, 19 de dezembro de 2013

Pra rir um pouco!!!! Boas festas a todos!!!

Acesse... http://winkal.com/share/l/sxmT?idd={%22eh%22%3A%22OHw4b_J52zUidbdZ-y0hEruMGNsZldKkchh-pWuzLzCrTLd6qc_1kg..%22%2C%22n%22%3A%22Carlos%22%2C%22id%22%3A0}&cid=snc_newsw_pt_20131219&utm_campaign=snc_newsw_pt_20131219&utm_source=snc&utm_medium=newsw&utm_content=male&utm_term=logo_male


Cloud computing: o marketing está nas nuvens -- Serie nas nuvens --



Qual a visão que a área de marketing tem em relação a TI? Muito provavelmente a resposta se resume em uma única palavra: complexo. Já o CIO tem em sua mente um local seguro e privativo. Essa é a conclusão de Rafael Novo, da Impacta e EMC, durante sua apresentação no IT Forum Expo/Black Hat.
Mas essa relação de desencontros entre as áreas deve mudar com a chegada da 3ª era, que tem a predominância móvel. São bilhões de usuários e milhões de aplicações ao redor do mundo, que juntos poderão transformar a relação que TI tem com negócio que, por sua vez, enxerga a tecnologia como lenta, cara e restritiva.
“As áreas de negócios em geral estão descontentes com a TI, que basicamente tem se preocupado com legado e com a crescente demanda que negócio traz para a sua área. Mas esse cenário está prestes a mudar”, garante.
Segundo Novo, para a área de TI continuar sendo relevante é preciso reduzir custos operacionais para oferecer preços atrativos para a área de negócio. “Isso é um desafio de anos, só que a agora entra um componente fundamental que é agilidade. A área de tecnologia tem que conseguir entregar um serviço confiável com baixo custo e de maneira ágil”, completa.
Dentro desse conceito e da necessidade da equipe de negócio surge a nuvem, que apesar de ser implementada dentro das organizações pela TI deve ser lembrada como uma revolução da outra área em questão. Embora seu objetivo seja oferecer facilidade, dinamismo, agilidade e baixo custo, cloud computing, na prática, tem criado certa dificuldade para a TI. “Só 9% das empresas disseram ter a área de tecnologia madura para prover soluções ágeis de nuvem. Isso porque cloud não é um produto. Envolve pessoa. É preciso reestruturação interna na organização para implementar essa solução na companhia”, enfatiza Novo ao frisar que é necessário virtualizar aplicações para missão crítica. “É um estepe necessário para ter cloud na sua infraestrutura.”
Estreitando relações
Para Rafael Novo, a área de marketing aposta em soluções de cloud computing em busca, essencialmente, de agilidade para entregar ao seu negócio a inovação desejada. E o investimento tem dado certo: “o próximo passo é fazer com que a TI se transforme em um provedor de tecnologia para o cliente interno”, sugere.
Trabalhar processos de TI como serviço já é realidade na EMC, segundo Novo, que enfatiza que o melhor dos mundos é a nuvem híbrida, podendo ser utilizada de acordo com cada aplicação.
“Entendendo a necessidade do negócio é possível determinar se a sua demanda se encaixa melhor num serviço de nuvem privada ou pública, e em qual provedor”, conclui.
O ponto fundamental é entender a demanda da área de negócio para que a TI consiga se tornar o provedor de serviço para a área de negócio, mesmo que ela use serviço da nuvem externa.


 Exemplo da computação em nuvem ....

A Mineração Taboca atua em diferentes localidades remotas, muitas delas sequer têm conexão à internet. Mas isso não foi impeditivo para a companhia adotar a nuvem – a agilidade e comunicação, somada à redução de custos, falaram mais alto e a TI investiu na contratação da nuvem da CorpFlex.
O até então CIO do grupo, Marcos Bueno, conheceu o fornecedor em um dos encontros promovidos pela IT Mídia em sua sede. Foi quando o executivo explicou a complexa estrutura geográfica da Taboca. O atendimento do projeto começa na unidade em Pirapora do Bom Jesus, no interior de São Paulo, pois as outras unidades como as instalações na reserva indígena de Pitinga, a 300 km de Manaus (AM), inexiste a presença de operadoras de internet. “Mas já estamos em contato com a Oi, e em março de 2014 deve implementar a infraestrutura e poderemos expandir a área de cobertura”, pontua o CIO.
Na nuvem privada e na solução de virtualização de desktops da Corpflex (VDC) foram investidos R$ 300 mil. Ao todo são 10 servidores que atendem cerca de 700 usuários em várias aplicações, entre elas firewall, antivírus, domain controller, web services, relógio de ponto, NF-e do sistema SAP, Active Directory e o próprio site da companhia. A princípio, a mineradora garante que a redução de despesas com gerenciamento de infraestrutura de redes com equipe interna chega a 40% em comparação com o modelo anterior, além de garantir a gestão de aplicativos, disponibilidade de sistemas, backup e segurança cobertos no contrato. A mudança irá eliminar perdas geradas por paradas, seja por problemas técnicos ou por questões de manutenção na rede elétrica, que acarretavam fortes prejuízos à operação.
A previsão é que todos os sistemas migrem para a nuvem até 20 dezembro. “Não tivemos dificuldade nenhuma de migração até agora, desde o processo de convencimento interno até a execução. Foi muito tranquilo”, ressaltou o executivo. Os ambientes são replicados para que não existam interrupções no funcionamento até que seja “virada a chave”. Até mesmo para a sucessão das atividades, com os processos de gestão, não serão afetados – Bueno deixa a companhia no fim de 2013 para assumir TI da Nufarm, empresa do ramo agrícola. A proposta da CorpFlex, de acordo com o presidente da empresa, João Andrade, é simplificar ao máximo a gestão, com total controle dos servidores, e proporcionar a menor mudança possível para as equipes de TI.

Fonte: http://informationweek.itweb.com.br/

sexta-feira, 6 de dezembro de 2013

Você ainda tem medo da computação em nuvem? Veja alguns detalhes importantes


Cloud Computing, ou computação em nuvem, já está virando tendência no mundo corporativo. Muitas empresas deixaram de usar servidores próprios para hospedar seus dados e passaram a contratar data centers para cuidar de toda a parte de armazenamento. O conceito de computação em nuvem vem se esclarecendo a cada dia, mas ainda existem muitas companhias que se sentem um tanto receosas com o fato de guardar seus arquivos e dados corporativos em servidores de terceiros. Mas esse é um risco que, na verdade, não existe

quarta-feira, 4 de dezembro de 2013

Carro voador, mais próximo de ser comercializado... sabia?


A empresa Terrafugia, de Massachusetts, EUA está desbravando a tão sonhada invenção de filmes futuristas. O protótipo tem autonomia para voar quase 500 milhas (cerca de 805 km) e fazer tanto a decolagem, quanto o pouso de forma automática.

A previsão é de que o conceito do TF-X , modelo do "carro voador Terrafugia", chegue ao mercado em um prazo de 8 a 12 meses, pelo preço de aproximadamente US$ 150 mil (cerca de R$ 301 mil). A Terrafugia promete que a mecânica seja mais avançada que a do protótipo voador passado, o Transition, que custará cerca de US$ 300 mil (ou R$ 603 mil).

Saiba mais aqui:

http://revistaautoesporte.globo.com/Noticias/noticia/2013/05/terrafugia-lanca-tf-x-conceito-de-carro-voador.html

Fonte: Revista Autoesporte

domingo, 1 de dezembro de 2013

Tecnologias atuais - Cartões de memória Flash - CF, SM, MMC, SD, MemoryStick e xD saiba como funcionam....

Estava buscando mais sobre memórias e olha que jóia que achei... espero que goste....  o autor é do site http://www.infowester.com.


O uso de equipamentos móveis cresce a cada dia e isso está fazendo com que os cartões de memória sejam cada vez mais utilizados. Esses dispositivos possuem uma determinada capacidade de armazenamento de dados e são usados para guardar e transportar arquivos de câmeras digitais, players de áudio, smartphones, entre outros. Este artigo abordará de maneira rápida os tipos de cartão mais conhecidos e a tecnologia usada neles, a memória Flash. Com isso, você conhecerá as principais características de cada padrão e saberá reconhecer qual a melhor opção para as suas necessidades.

Memória Flash

Os cartões de memória são, essencialmente, baseados na tecnologia Flash, um tipo de memória EPROM (Electrically-Erasable Programmable Read Only Memory) desenvolvido pela Toshiba nos anos 1980. Os chips Flash são ligeiramente parecidos com a memória RAM (Random Access Memory) usada nos computadores, porém suas propriedades fazem com que os dados não sejam perdidos quando não há fornecimento de energia (por exemplo, quando a bateria acaba ou o dispositivo é desligado). Fazendo uma comparação grosseira, o conceito de gravação de dados em um chip Flash é semelhante ao processo de gravação de dados em mídias CD-RW: de acordo com a intensidade de energia aplicada (no caso do CD-RW, laser), há gravação ou eliminação de informações.
A memória Flash consome pouca energia, ocupa pouquíssimo espaço físico (daí ser ideal aos dispositivos portáteis) e costuma ser resistente, ou seja, bastante durável. O grande problema da memória Flash é o seu preço elevado. Felizmente, a popularização desta tecnologia está fazendo com que os seus custos diminuam com o passar do tempo.
A tecnologia Flash faz uso de chips de estado sólido (solid state) e que não possuem peças móveis, o que evita problemas de causa mecânica. Juntando esse fator a recursos de proteção, como ECC (Error Correction Code), a memória Flash se mostra bastante confiável.

Flash NOR e Flash NAND

Há, basicamente, dois tipos de memória Flash: NOR e NAND. Vejamos cada categoria a seguir:
NOR: a memória Flash NOR (Not OR) permite acesso às células de memória de maneira aleatória, mas com alta velocidade. Em outras palavras, o tipo NOR possibilita o acesso de dados em posições diferentes da memória de maneira rápida, sem necessidade de esta operação ser sequencial. O tipo NOR geralmente é aplicado em chips de BIOS, telefones celulares e em placas de rede especiais, por exemplo;
NAND: por sua vez, a memória Flash NAND (Not AND) também trabalha em alta velocidade, porém faz acesso sequencial às células de memória e trata-as em conjunto, isto é, em blocos de células, em vez de acessá-las de maneira individual.

Os diversos tipos de cartões de memória

Embora sejam baseados na mesma tecnologia, contamos atualmente com cerca de uma dezena de tipos de cartões de memória. Qual o motivo para tamanha quantidade? Ao contrário do que houve com outras tecnologias, como o USB e o CD, os fabricantes de memória não entraram em um acordo para trabalhar em um padrão único de cartão. Como consequência, o mercado encontra hoje uma variedade de tipos deste dispositivo. Os mais comuns são abordados a seguir.

CompactFlash (CF)

O cartão de memória CompactFlash (CF) foi desenvolvido pela empresa SanDisk em meados de 1994 e acabou sendo o primeiro tipo a se popularizar. Trata-se de um cartão com as seguintes dimensões: 43 mm x 3 mm x 5 mm no tipo I e 43 mm x 3 mm x 3,3 mm no tipo II.
Esse tipo de cartão faz uso de memória Flash tipo NAND, no entanto, foi desenvolvido inicialmente para trabalhar com a tecnologia Flash NOR. Apesar de ser o tipo com as maiores dimensões, os cartões CompactFlash são utilizados até hoje, principalmente em câmeras digitais profissionais e filmadoras digitais. Embora raros, é possível encontrar cartões do tipo com até 128 GB de capacidade.
O CompactFlash é mantido pela CompactFlash Association e sua tecnologia de construção também é aplicada em cartões para Wi-Fi (redes sem fio), modems, etc.













Cartão CompactFlash da Kingston

SmartMedia (SM)

O cartão de memória SmartMedia (cujo nome original é Solid State Floppy Disk Card - SSFDC) chama a atenção logo de início por ser parecido com os já defasados disquetes de 3,5 polegadas. Lançado pela Toshiba em meados de 1995, esse tipo de cartão tem tamanho de 45 mm x 37 mm x 0,76 mm e sua fabricação é mais simples quando comparada com tecnologias concorrentes.
Essa característica se deve ao fato de esse tipo de cartão não possuir circuitos controladores, reduzindo seu custo de produção. Devido a isso, as funções de controle tiveram que ser inseridas nos equipamentos que trabalham com SmartMedia. Isso representa uma desvantagem na questão do aumento de capacidade, pois estes aparelhos "não sabem" trabalhar com cartões que armazenam mais dados do que o programado em seus circuitos.
Como consequência, os cartões SmartMedia mais comuns possuem tamanho de até 128 MB, muito pouco para as necessidades atuais. Por este motivo, estão praticamente em desuso.
A Fujifilm, a Olympus e a Toshiba foram as empresas que mais fizeram uso dessa tecnologia. Essa utilização ocorreu quase que exclusivamente em câmeras digitais.












Cartão SmarMedia

MultiMedia Card (MMC)

Lançado em 1997 por meio de uma parceria entre SanDisk e Siemens, o cartão de memória MultiMedia Card (MMC) possui dimensões menores em comparação aos padrões mostrados anteriormente: 24 mm x 32 mm x 1,4 mm. O tipo de Flash  utilizado no MMC é o NAND.
Esse tipo de cartão foi desenvolvido inicialmente para telefones celulares e pagers, mas só se tornou significativamente conhecido depois que a Palm o inseriu em seus handhelds (computadores de mão). O padrão, no entanto, perdeu espaço para os cartões do tipo SD. Apesar disso, as especificações MMC continuam sendo utilizadas pela indústria, embora em menor escala. O padrão conta inclusive com variações, como os cartões MMCmicro, SecureMMC e MMCmobile.












Cartão MMC da Maxell

Secure Digital (SD)

Os cartões Secure Digital (SD) foram anunciados em 1999 e são fruto de uma parceria entre SanDisk, Panasonic e Toshiba. Trata-se de uma variação do tipo MMC, possuindo inclusive quase as mesmas dimensões: 24 mm x 32 mm x 2,1 mm. Entre seus diferenciais em relação a este estão: compatibilidade com determinações de segurança da Secure Digital Music Initiative (SDMI), que visa evitar a distribuição ilegal de músicas; uma pequena trava de segurança que impede a eliminação de dados do dispositivo; e melhor desempenho na transferência de dados.
Cartões SD são, atualmente, o tipo mais popular de memória Flash, sendo amplamente utilizados em celulares, câmeras digitais, consoles de videogame e outros dispositivos portáteis. Tamanho sucesso se deve, em parte, às suas variações: os cartões miniSD e microSD, que possuem dimensões reduzidas, como indicam seus nomes (20 mm x 21,5 mm x 1,4 mm e 11 mm x 15 mm x 1 mm, respectivamente). Independente da categoria, os cartões SD podem ser encontrados atualmente com capacidades bastante altas, como 32 ou 64 GB.
Saiba mais na matéria Cartões de memória SD.


















Cartão SD da Transcend

 















 Cartão microSD

MemoryStick

O cartão MemoryStick foi desenvolvido pela Sony e é usado principalmente em câmeras fotográficas e filmadoras digitais da empresa. Embora seja menor que o CompactFlash e o SmartMedia, seu tamanho não é dos mais reduzidos: 50 mm x 21,5 mm x 2,8 mm.

















Cartão MemoryStick da Sony
Os primeiros cartões MemoryStick podiam armazenar apenas alguns megabytes. Uma versão conhecida por MemoryStick PRO foi lançada posteriormente com capacidades indo de 256 MB a 16 GB e maior velocidade de leitura e gravação: 160 Mb/s contra 14,4 Mb/s (gravação) e 19,6 Mb/s (leitura) da primeira versão.
Foram lançadas também versões conhecidas como MemoryStick Duo e MemoryStick PRO Duo. Por serem menores que os cartões MemoryStick convencionais (31 mm x 20 mm x 1,6 mm), os formatos Duo não são compatíveis com aparelhos mais antigos, a não ser pelo uso de adaptadores.
Como se não bastasse, há ainda uma versão mais recente chamada MemoryStick Micro (M2), que foi lançada pela Sony em parceria com a SanDisk em 2006. Assim como o MiniSD e o MicroSD, o MemoryStick Micro é direcionado ao mercado de dispositivos portáteis, como smartphones, dadas as suas dimensões: 15 mm x 12,5 mm x 1,2 mm.

















Cartão MemoryStick Duo da SanDisk

eXtreme Digital (xD-Picture)

O cartão de memória xD-Picture foi disponibilizado em 2002 pela Fujifilm em conjunto com a Olympus, sendo quase que exclusivamente aplicado apenas em câmeras digitais destas. Teoricamente, a capacidade de armazenado deste padrão pode chegar a 8 GB. Suas dimensões são as seguintes: 20 mm x 25 mm x 1,78 mm.
Visto como um substituto do SmartMedia, o xD-Picture também não tem circuitos controladores internos, o que significa que aparelhos mais antigos não são capazes de ler cartões desse tipo com novas capacidades de armazenamento. Por não ser muito popular, as empresas envolvidas com este tipo de cartão tiveram até que desenvolver adaptadores para que o xD-Picture seja lido em interfaces como PC-Card (antiga PCMCIA) e CompactFlash.
Por causa da popularização dos cartões SD, trata-se de um padrão praticamente em desuso.














Cartão xD-Picture da Olympus

Finalizando

Além de câmeras digitais, celulares, tocadores de áudio e outros dispositivos móveis, obviamente, é necessário que os computadores possam ler cartões de memória. Para isso, convencionou-se o uso de leitores de cartões compatíveis com os mais diversos formatos. Esses dispositivos geralmente são conectados ao computador via porta USB, mas também podem ser oferecidos embutidos em desktops. O leitor abaixo, por exemplo, é compatível com os seguintes padrões: SD, microSD, MMC, xD-Picture, CompactFlash, MemoryStick e M2:


 












 E finalizando de vez, vale mencionar que hoje, laptos, ultrabooks e tablets em sua maioria já dispõem da porta SD para cartões seja SD ou MiniSD ou outra flash qualquer mas dispondo desse maravilhoso recurso de memória.

Fonte: http://www.infowester.com/cartoesflash











quinta-feira, 28 de novembro de 2013

SSD _Solid State Drive - Disco de memória semicondutivo, será que essa moda pega?

Pessoal, a quem diga que os HDs estão com seus dias contados, olhem essa nova tecnologia...

SSD (sigla do inglês solid-state drive) ou unidade de estado sólido é um tipo de dispositivo, sem partes móveis, para armazenamento não volátil de dados digitais.

São, tipicamente, construídos em torno de um circuito integrado semicondutor1 , responsável pelo armazenamento, diferindo dos sistemas magnéticos (como os HDs e fitas LTO) ou óticos (discos como CDs e DVDs). Alguns dos dispositivos mais importantes usam memória RAM, e há ainda os que usam memória flash (estilo cartão de memória SD de câmeras digitais).


Memória HD Convencional              Memória SSD
Fonte:www.infowestrer.com             Fonte:www.tecnomodo.com

Como características os dispositivos SSD têm  particulares que trazem vantagens e desvantagens em relação aos dispositivos de armazenamento convencionais. Entre elas:

Vantagens
 Tempo de acesso reduzido. O tempo de acesso à memória RAM é muito menor do que o tempo de acesso a meios magnéticos ou ópticos. Outros meios de armazenamento sólido podem ter características diferentes consoante o hardware e software utilizado Eliminação de partes móveis eletro-mecânicas, reduzindo vibrações, tornado-os completamente silenciosos; Por não possuírem partes móveis, são muito mais resistentes que os HDs comuns contra choques físicos, o que é extremamente importante quando falamos em computadores portáteis;
Menor peso em relação aos discos rígidos convencionais, mesmo os mais portáteis;
Consumo reduzido de energia;
Possibilidade de trabalhar em temperaturas maiores que os HDs comuns - cerca de 70° C;
 Largura de banda muito superior aos demais dispositivos, apresentando até 250 MB/s na gravação 2 e até 700 MB/s nas operações de leitura 3 .

Desvantagens
Custo mais elevado;
Capacidade de armazenamento inferior aos discos rígidos IDE e SATA;
Para os padrões atuais de mercados e aplicações, os dispositivos SSD ainda tem um custo/gigabyte elevado, comparados aos dispositivos magnéticos.

Para resolver este problema, parte das máquinas mais modernas, hoje em dia, conta com um SSD onde é instalado o sistema operacional e programas e um HD onde são gravados os arquivos de uso e backup. Dessa maneira, os micros podem chegar a ter tempo de boot e abertura de programa até 5x menor do que nas máquinas onde só se usa HD magnéticos. Os maiores SSD disponíveis, actualmente, têm 1TB de capacidade, encontado-se à venda online. Nos Estados Unidos situam-se, geralmente, entre os 2 e 3 mil doláres. A Toshiba anunciou o lançamento da maior memória Flash do mercado, com 256 GB de capacidade. A IBM tem um modelo com 4TB 4 . Novas unidades são regularmente apresentadas, mostrando ser uma tecnologia em que estão sendo investidos muitos recursos. Em Outubro de 2011, a empresa OCZ, lançou o primeiro SSD de 1TB e 2,5 polegadas. Com este lançamento é cada vez mais evidente que os HDs comuns estarão com seus dias contados. De fato, a ideia é trocar um disco rígido por memórias de estado sólido de forma natural. O conector, a interface e as características lógicas são as mesmas. Na verdade um disco de estado sólido pode ter o mesmo tamanho de um disco de 3.5", se encaixado normalmente no lugar de um disco rígido. Mas ainda estamos longe de decretar a morte dos discos rígidos. As duas tecnologias ainda vão coexistir por um longo tempo e provavelmente ganharão novos rivais. Flash Drives A maioria dos fabricantes utilizam SSD de memória flash não-volátil para criar dispositivos mais robustos e compactos para o mercado consumidor. Estes SSDs baseados em memória flash, também conhecida como flash drives, não necessitam de baterias. Eles são frequentemente embalados na unidade de disco padrão(1,8 polegadas, 2,5 polegadas e 3,5 polegadas). SSDs são mais rápidos do que as DRAM e alguns modelos chegam a ser até 6X mais rápidos do que o tradicional HDDs em arquivos grande. Flash SSDs não têm partes móveis e, portanto, procuras e outros atrasos inerentes de discos eletro-mecânicos convencionais são insignificantes.

Duração Estudos comprovam que os SSDs recentemente produzidos possuem vida útil longa, mesmo que seja feito uso contínuo deles. Sistemas de arquivos otimizados para SSDs Alguns modelos de SSDs possuem otimizações para aumentar suas performances através da redução de lixo coletado durante as leituras realizadas. Esta propriedade conhecida como TRIM, a palavra TRIM não é uma abreviação, é simplesmente o comando que o sistema operacional utiliza para informar a um SSD que determinado bloco de informação não está em uso e portanto não precisa ser recuperado durante leituras no setor ao qual ele pertence. O sistema operacional Windows 7 dá suporte à TRIM, o MAC OS X versão 10.6.8 (ou mais recentes) também, no caso do Linux as versões 2.6.33 ou mais recentes também dão suporte à TRIM.


 Tecnologias Utilizadas

(Multi Level Cell) MLC são empregadas nos dispositivos eletrônicos de uso corrente, como pen-drives” e cartões de memória. Já existem no mercado módulos de até 32 GB (esperando-se para breve os primeiros de 64 GB), são mais baratas, mais compactas (uma única “célula” pode armazenar dois bits através da variação dos níveis de corrente que conduz em quatro intensidades identificáveis), mas em contrapartida apresentam um desempenho duas vezes menor que o das memórias SLC e impõem um limite de 10.000 (dez mil) operações de escrita por célula.

SLC (Single Level Cell) SLC são mais caras, menos densas (cada célula armazena apenas um bit, como toda célula de memória que se preza) e os módulos de maior capacidade hoje existentes armazenam apenas 16 GB (esperando-se para breve os de 32 GB). Em contrapartida admitem até 100.000 (cem mil) operações de escrita por célula e apresentam um desempenho muito superior: tempo de leitura de 25 microssegundos, de escrita de 200 microssegundos e necessitam de apenas 1,5 microssegundo para apagar o dado armazenado (repare que a unidade é microssegundo, ou milionésimo de segundos, e não milissegundo, ou milésimo de segundo, usualmente adotado para medir o desempenho de discos magnéticos). Este tipo de memória flash tem sido usado até o momento apenas em aplicações militares, industriais e corporativas. Preços mais baixos normalmente usam unidades Multi Level Cell (MLC), que é mais lento que uma unidade Single Level Cell (SLC).

Leia também... saiba mais a fundo... colaboração do amigo Rodrigo L. !

http://techreport.com/review/24841/introducing-the-ssd-endurance-experiment
http://techreport.com/review/25681/the-ssd-endurance-experiment-testing-data-retention-at-300tb

Fonte:Wikipédia.

sexta-feira, 22 de novembro de 2013

SMP - Tecnologos e Engenheiros - Saiba se seu salário esta dentro do especificado por lei ...

Caros leitores durante uma breve pesquisa descobri que no Brasil há uma Lei para instituir o piso salarial de Tecnólogos e Engenheiros, como descrito o Salário Mínimo Profissional (SMP), fazendo valer seus direitos como graduandos de nível superior. Porem tomei frente pois sei que este tipo de informação é pouco difundida pela mídia, o que deveria ser de conhecimento publico as vezes fica esquecido entre as inúmeras  lei de nosso sistema judiciário.

Então chega de firulas, aqui esta nossa amiga, a Lei 4950-A/66,

Exemplo: Um tecnólogo que trabalha em média 8h/dia deve receber 7,5 salários mínimos, ou seja,

Sendo hoje: R$678,00 x 7,5 = R$5085,00 reais, será que isso é verdade?...vamos aos fatos...

Segue a mesma na integra: http://www.planalto.gov.br/ccivil_03/leis/L4950a.htm

Ou veja na integra a cartilha explicativa...



Conclusão
Temos que rever nosso conceito colegas e fazer valer as leis... pois a graduação é algo valioso e tem de ser reconhecido...

Grande abraço a todos e sucesso,

Att
Carlos E. Oliveira
Tecnólogo Especialista

quinta-feira, 21 de novembro de 2013

Energia da sucata... para onde os carros brasileiros irão?

Caros leitores,

já pararam para pensar... com tantos carros no mercado, para onde irão as sucatas ... As empresas automobilísticas tem  se preocupados com a produção mas e o fruto da depreciação dos carros, quem está explorando este mercado em âmbito nacional?

Fica a deixa... se alguém quiser deixo aberto a discussão...

Boa noite caros colegas pensantes....

Laboratório brasileiro alarga pistas para internet do futuro

Laboratório brasileiro alarga pistas para internet do futuro
[Imagem: Ag.Fapesp]
Quanto maior a largura da banda, maior o número de lasers colocados numa única fibra e maior a capacidade de tráfego.
A tecnologia atualmente utilizada nas redes de comunicação óptica não dará conta de atender à expansão da internet, dos dispositivos móveis, da TV de alta definição e das demandas das telecomunicações nos próximos 20 anos.
Será necessário multiplicar a capacidade atual de operação - de um terabyte por segundo - por um fator entre 100 e 1.000 para atender a um número cada vez maior de usuários - que representará quase metade da população mundial já em 2017 - e ao tráfego corporativo global.
A busca de soluções para isso mobiliza empresas e instituições de pesquisas - entre elas, o Centro de Pesquisa em Óptica e Fotônica (CePOF).
"Fazemos todos os tipos de estudos com comunicações ópticas, desde caracterizar fibras até testar os sistemas mais avançados, com equipamentos de primeiro mundo", resume Hugo Fragnito, coordenador do CePOF, que tem sede na Universidade Estadual de Campinas (Unicamp).
Amplificadores paramétricos de fibra óptica
O CePOF ganhou posição de liderança na corrida mundial de pesquisas relacionadas à tecnologia de amplificadores paramétricos de fibra óptica (Fopa, do inglês Fiber Optic Parametric Amplifier).
Os amplificadores têm a função de manter a potência do sinal de luz que percorre o interior das fibras ao longo do percurso e, no caso dos amplificadores paramétricos, poderão ser a resposta ao desafio de ampliar a largura da banda e, consequentemente, o tráfego na rede.
"Conseguimos um recorde: já atingimos uma largura de banda de 115 nanômetros [um nanômetro equivale a um milionésimo do milímetro]", explica Hugo.
Foi, de fato, um grande feito.
Os sistemas disponíveis garantem uma largura máxima de banda de 30 nanômetros na região das comunicações ópticas, podendo comportar até 80 lasers - o que limita a transmissão a uns poucos terabytes por segundo.
Quanto maior a largura da banda, maior o número de lasers colocados numa única fibra e maior a capacidade de tráfego. De acordo com Hugo, "utilizando os Fopas, será possível transmitir dez vezes mais".
Laboratório brasileiro alarga pistas para internet do futuro
O érbio também está sendo utilizado na transmissão quântica de informações. [Imagem: UNSW]
Érbio
A operação comercial dos amplificadores paramétricos promete promover uma nova revolução na comunicação óptica, comparável à tecnologia de fibras ópticas dopadas com érbio, adotada em meados dos anos 1990.
"O érbio viabilizou a internet", enfatiza Hugo.
Antes do érbio, ele conta, a comunicação entre São Paulo e Campinas por meio de fibra óptica, por exemplo, funcionava com capacidade máxima de 1 gigabyte por segundo. Em cada fibra, um laser. Se a demanda crescesse, era necessário instalar mais fibras. E, a cada 20 quilômetros, era preciso colocar um repetidor de circuito eletrônico para que a luz continuasse a sua viagem. Além de caro, o sistema era lento.
O érbio, elemento químico do grupo terras raras, tem a propriedade de emitir fótons que aumentam a intensidade da luz e, com a tecnologia WDM, possibilita que uma mesma fibra se transforme numa espécie de ramalhete de lasers operando em frequências diferentes e com sinais mais intensos.
Tal tecnologia viabilizou os serviços de banda larga e permitiu substituir repetidores por amplificadores, instalados a cada 50 quilômetros ao longo do percurso da fibra, acelerando o tráfego de dados.
Vidro telurito
Ante o risco de congestionamento na rede, no entanto, há que se garantir mais eficiência não apenas para os amplificadores, mas para todos os componentes da rede óptica, inclusive para as fibras.
As fibras ópticas são fabricadas com sílica, um óxido abundante e barato. O problema é que um amplificador óptico carrega de 20 a 30 metros de fibras de sílica enroladas, o que aumenta as dimensões do equipamento.
Laboratório brasileiro alarga pistas para internet do futuro
O óxido de telúrio está presente na emergente tecnologia dos vídeos holográficos. [Imagem: Daniel Smalley]
Os pesquisadores do CePOF investigam alternativas para esse material e têm conseguido resultados interessantes substituindo a sílica por óxido de telúrio - tecnologia já patenteada pela equipe.
"A vantagem é que o telurito permite dissolver o érbio em concentração 70 vezes maior do que a sílica", compara Hugo. Quanto mais érbio, mais fótons e mais luz.
Com o telurito, talvez seja possível reduzir o comprimento e o volume das fibras e, consequentemente, a dimensão dos amplificadores. "A palavra de ordem é miniaturizar, reduzir de 20 metros para centímetros", ele diz.
Miniaturização
Ainda há problemas a serem solucionados antes de levar os Fopas ao mercado. O primeiro é controlar a dispersão da luz na fibra óptica, decorrente de variações de diâmetro ao longo do percurso e que pode comprometer os ganhos da nova tecnologia, já que limita a eficiência dos Fopas. "Estamos estudando como desenvolver fibras e guias de onda extremamente uniformes, de forma a reduzir a dispersão ao longo da fibra", afirma Hugo.
O segundo problema, ainda sem solução, é a dimensão dos equipamentos, levando-se em conta que, no mundo da alta tecnologia, espaço é custo. O ideal seria colocar "tudo dentro de um chip", diz Hugo. "A óptica integrada foi impulsionada pela necessidade da indústria microeletrônica em vencer os limites de espaço físico, aumentando as taxas de desempenho. Hoje, estamos apostando na miniaturização de componentes de fibras ópticas - ou seja, em fazer tudo menor e mais barato."
O CePOF criou uma infraestrutura de ponta para a fabricação de dispositivos de óptica integrada a base de silício e outros materiais semicondutores. Essa tecnologia permitirá integrar dezenas de lasers, filtros, detectores e outros dispositivos fotônicos interconectados por guias de onda de dimensões nanométricas, tudo em um único chip do tamanho de uma moeda de R$ 0,25.

Fonte: http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=laboratorio-brasileiro-alarga-pistas-internet-futuro&id=010110131108

Hologragia.. imagens no ar - tecnologia holográfica criada com metamateriais


Nova tecnologia holográfica criada com nanoantenas
O holograma da palavra "Purdue" - o nome da universidade - mede cerca de 100 micrômetros de largura e flutua 10 micrômetros acima da metassuperfície.
 [Imagem: Xingjie Ni/Birck Nanotechnology Center]
Hologramas de metamateriais
Os metamateriais, aqueles usados nos mantos de invisibilidade, estão na base de uma nova tecnologia holográfica que acaba de ser criada.
Xingjie Ni e seus colegas da Universidade Purdue, nos Estados Unidos, usaram os metamateriais para criar uma "metassuperfície" capaz de controlar a luz de forma ultra-eficiente.
Os hologramas gerados não são grandes o suficientes para criar um cinema 3D verdadeiro, mas o potencial da nova tecnologia pode ser visto no fato de que são as metassuperfícies que estão colocando a luz dentro dos processadores de computador.
Essas folhas ultrafinas e suas nanoantenas estão criando um novo ramo da tecnologia, que está sendo chamado de "fotônica planar". Elas permitem criar, entre muitas outras possibilidades, chaves ópticas - ou transistores - pequenas o suficiente para serem integradas no interior dos chips.
Revolução nos pixels
A metassuperfície é composta por milhares de nanoantenas em forma de V formadas sobre uma folha de ouro ultrafina.
Quando a luz de um laser é disparada sobre as nanoantenas, os hologramas são criados pairando 10 micrômetros acima da metassuperfície.
Para demonstrar a tecnologia, a equipe criou um holograma da palavra "Purdue" - o nome da universidade - de cerca de 100 micrômetros de largura, mais ou menos a espessura de um fio de cabelo humano, flutuando logo acima do metamaterial.
"Se pudermos manipular os caracteres, poderemos moldar diferentes tipos de feixes de luz para leitura ou gravação, ou, por exemplo, formar pixels para monitores 3-D. Outra aplicação potencial é a transmissão e processamento de dados dentro dos chips," disse Alexander Kildishev, membro da equipe.
Nova tecnologia holográfica criada com metamateriais
As nanoantenas estão permitindo a criação de metamateriais ativos. [Imagem: Birck Nanotechnology Center/Purdue University]
Assim, os hologramas gerados por metassuperfícies poderão de fato mudar a forma como são construídas as telas de TV e computadores, mas fazendo uma revolução de baixo para cima, a partir de seus pixels individuais.
"Os menores detalhes - os traços das letras - exibidos em nosso experimento têm apenas 1 micrômetro de largura, o que é uma resolução espacial notável," completou Kildishev.
Metamateriais nanoestruturados
Usar fótons em vez de elétrons pode acelerar drasticamente os computadores e as telecomunicações.
Contudo, os dispositivos fotônicos convencionais não podem ser miniaturizados porque o comprimento de onda da luz é grande demais para caber nos pequenos componentes no interior dos circuitos integrados - basta lembrar que os transistores atuais estão na faixa dos 20 nanômetros, enquanto o comprimento de onda da luz visível tem ao redor de 700 nanômetros.
Os metamateriais nanoestruturados, contudo, permitem reduzir o comprimento de onda da luz, viabilizando a criação de componentes fotônicos em nanoescala - ou nanofotônicos.
"O mais importante é que podemos fazer isso com uma camada muito fina, de apenas 30 nanômetros, algo sem precedentes. Isso significa que você pode começar a incorporá-los em circuitos eletrônicos, para casar com a eletrônica," disse o professor Vladimir Shalaev, um dos pioneiros no campo das nanoantenas.

Fonte: http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=tecnologia-holografica-metamateriais&id=020150131118&ebol=sim

Bibliografia:

Metasurface holograms for visible light
Xingjie Ni, Alexander V. Kildishev, Vladimir M. Shalaev
Nature Communications
Vol.: 4, Article number: 2807
DOI: 10.1038/ncomms3807

segunda-feira, 18 de novembro de 2013

Sabia que é possivel levantar objetos com luz? É verdade....

Tripé de luz levita objetos visíveis a olho nu
A levitação com raios de luz terá aplicações na metrologia e nos experimentos quânticos. [Imagem: G. Guccione et al., Phys. Rev. Letters]
 
Levitação com luz
As pinças ópticas, a luz torcida e os raios tratores estão sendo usados para manipular nanopartículas há algum tempo. Recentemente, inventou-se também uma roda fotônica, que promete criar um verdadeiro canhão de nanopartículas. Mas agora a luz parece estar ganhando maiores poderes - ou poderes para segurar coisas muito maiores.Giovanni Guccione, da Universidade Nacional Australiana, idealizou um "tripé de luz", um mecanismo inteiramente fotônico, que é capaz de segurar objetos enormes em comparação com as nanopartículas suspensas até agora. Usando apenas alguns poucos watts de laser, é possível suspender no ar objetos visíveis a olho nu, como um disco com dois milímetros de diâmetro.

Tripé de luz
O tripé de luz é formado por um disco convexo altamente reflexivo que atua como espelho na extremidade superior de três cavidades ópticas independentes, que juntas formam o tripé.
A quantidade de energia armazenada na luz que fica refletindo entre as cavidades e o espelho é suficiente para sustentar pequenos objetos.
A técnica é diferente da chamada levitação óptica, que se baseia no espalhamento da luz - aqui, o que opera é tão somente a pressão de radiação.
Isso significa que o objeto suspenso fica imune não apenas às vibrações mecânicas do ambiente, mas até mesmo do ruído induzido pela aleatoriedade do espalhamento da luz - ele fica imperturbável, por assim dizer.
Segundo os pesquisadores, os tripés de luz vão permitir medições muito mais precisas - precisas o suficiente para medir a força da gravidade, um campo repleto de controvérsias:
Como o laser também pode ser usado para resfriar os objetos, o aparato poderá ser usado em qualquer tipo de experimento envolvendo a natureza quântica das partículas.
Bibliografia:

Scattering-Free Optical Levitation of a Cavity Mirror
Giovanni Guccione, M. Hosseini, S. Adlong, M. T. Johnsson, J. Hope, B. C. Buchler, P. K. Lam
Physical Review Letters
Vol.: 111, 183001
DOI: 10.1103/PhysRevLett.111.183001

Fonte:
http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=tripe-de-luz-levitacao-objetos&id=010165131111&ebol=sim

terça-feira, 12 de novembro de 2013

Motor magnetico... Movimento com mínimo atrito

Você sabia que é possível utilizar o campo magnético de um imã permanente para gerar movimento... Pois é essa que será a nova proposta para substituir as máquinas rotativas atuais...  Irei pesquisar mais a fundo e postar essa tecnologia aqui...
Atualmente, os tradicionais motores de veículos e geradores elétricos são altamente poluentes, levando em conta o número de veículos em operação no planeta, gerando um grave problema ambiental, pois, eles dependem de combustíveis fósseis não renováveis (gasolina e diesel) ou de combustíveis de origem vegetal (álcool e biodiesel), que envolvem o plantio, colheita e processamento industrial da matéria prima para serem produzidos.
Há também o fator dos veículos elétricos que demandam maior produção de energia, além dos veículos movidos a hidrogênio que demandam grande investimento nas estruturas dos postos, entre outros.
Por isso, o Pesquisador Tecnológico Antônio Fernandes desenvolveu o projeto “Motor Magnético”, que aproveita todos os mecanismos de transmissão de movimento dos motores convencionais a explosão, modificando apenas o modo de acionamento dos pistões, substituindo, no todo ou em parte, as explosões por forças magnéticas.
Aplicações - “A gama de aplicações é muito ampla, pode ser substituído um motor a explosão ou uma grande bateria, utilizados em produtos como Brinquedos, Carros de Golfe, Geradores, Veículos a combustão ou elétricos, etc., além de novas possibilidades.”, afirma Fernandes.
Conforme o Pesquisador, “podemos desenvolver Células de Energia Magnética, para substituir as baterias de um veículo elétrico, por exemplo, onde o maior problema que é sua recarga e autonomia seriam resolvidos, pois uma Célula poderia produzir energia por vários anos, com baixa manutenção.”
Este sistema aproveita toda a estrutura básica de um motor convencional e faz uma simples conversão para transformá-lo em motor magnético, além de permitir a substituição total ou parcial dos combustíveis convencionais.
Segundo o Inventor, “O motor torna-se economicamente viável, pois não há necessidade de mudanças nas estruturas dos veículos ou geradores.”, afirma.
Esta inovação agrega diversos benefícios como: praticidade, segurança, Alta rentabilidade, diferenciação no mercado, economia de combustíveis e materiais, diminuição da emissão dos gases poluentes e um excelente custo x benefício x produção.
Parceria – Por isso, Antônio está em busca de parceiros para ajudar a desenvolver modelos. “Este projeto proporciona uma maior durabilidade do motor e de seus componentes.” comenta.
Com a patente assegurada, Antônio Fernandes busca negociá-la ou obter uma parceria entre montadoras de veículos e empresas fornecedoras de energia, para criar modelos, realizar testes e conseguir industrializá-la. Empresários interessados em investir no produto devem entrar em contato com a Associação Nacional dos Inventores pelo telefone (11) 3873-3211.

Fonte: http://www.inventores.com.br/index.php?option=com_k2&view=item&id=310:motor-magnetico&Itemid=237

domingo, 10 de novembro de 2013

Atingimos 1000 acessos... muito obrigado a todos....

Pessoal gostaria de agradecer os acessos, assim a motivação permanece constante para fomentarmos o conhecimento e busca de novas tecnologias. Podem contar comigo nesta jornada...

Muito obrigado a todos,

Att
Eletrônica, Automação e Controle.

Usina de energia solar é inaugurada no Mineirão, em Belo Horizonte -

Estádio é o primeiro do Brasil a receber tecnologia.
Painéis coletores foram instalados na cobertura do Mineirão.

Projeto de parceria entre o governo de Minas Gerais e a  Companhia Energética de Minas Gerais (Cemig),  o consórcio Minas Arena inaugurou, 17 de maio de 2013, a Usina Solar Fotovoltaica (USF), no estádio Governador Magalhães Pinto, o Mineirão, em Belo Horizonte. Sendo o primeiro estádio  do Brasil a receber a tecnologia, que começa a funcionar na Copa das Confederações, em junho deste ano, segundo a Cemig. O sistema vai ser responsável pela geração de energia correspondente ao consumo de 900 residências.

O empreendimento foi financiando em 80% com fundos do Banco de Desenvolvimento da Alemanha, Kreditanstalt für Wiederaufbau (KfW).

O sistema será uma fonte limpa de geração de energia. Painéis coletores foram instalados na cobertura do Mineirão, em uma área total de 9,5 mil metros quadrados. De acordo com a Companhia Energética de Minas Gerais (Cemig), a potência de geração de energia equivale ao consumo de cerca de 900 residências.
A usina começou a ser montada em dezembro de 2012, com os trabalhos de preparação e impermeabilização da cobertura para a montagem das estruturas metálicas de suporte das placas fotovoltaicas.
A CEMIG informou que a energia elétrica será injetada em sua rede, por meio da subestação de alimentação do Mineirão, situada dentro do estádio. Toda a energia produzida será distribuída na rede, sendo que 10% vai retornar à Minas Arena e será utilizada dentro do estádio.

A iniciativa de se instalar uma central geradora de energia a partir dos raios do sol no Mineirão foi inspirada nos estádios de Freiburg, considerada a capital solar da Alemanha, e de Berna, na Suíça, e nos estádios solares construídos para a Eurocopa 2008.
"A instalação da usina solar do Mineirão honra um calendário de ações sustentáveis implementadas na obra de modernização do estádio desde as primeiras demolições até os dias de hoje. Cerca de 90% dos resíduos sólidos gerados com a obra, por exemplo, tiveram destinação sócio-ambientais responsáveis, como a terra, o metal e o concreto. É um privilégio ter em funcionamento a primeira usina solar dos estádios da Copa de 2014", destacou Tiago Lacerda, secretário de Estado Extraordinário da Copa (Secopa).

Visão politica e financeira do assunto


O secretário do Ministério Federal para Cooperação Econômica e Desenvolvimento da Alemanha (BMZ, na sigla em alemão), Hans-Jürgen Beerfeltz juntamente com o secretário de Estado Extraordinário da Copa, Tiago Lacerda, e o presidente da concessionária de energia brasileira Cemig, Djalma Bastos de Morais, a primeira usina de energia solar em um estádio da Copa do Mundo de Futebol de 2014, em Belo Horizonte efetuaram a inauguração do projeto, que recebeu um apoio significativo da Alemanha com empréstimos a juros baixos e serviços de consultoria, faz parte da Temporada da Alemanha no Brasil no setor de "desenvolvimento sustentável".
De acordo com informações do governo de Minas Gerais, a Usina Solar Fotovoltaica (USF) Mineirão tem uma potência instalada de 1,42 MWp, com cerca de 6.000 módulos fotovoltaicos instalados no telhado do estádio. Toda a energia gerada será injetada na rede de distribuição da Cemig por meio da subestação de alimentação do estádio, sendo que 10% vai retornar à Minas Arena e será utilizada dentro do Mineirão. A energia produzida será capaz de atender, aproximadamente, 900 residências de médio porte.
Detalhe dos módulos fotovoltaicos no teto no estádio / Foto : Renato Cobucci/Imprensa MG
 
Já a implantação da USF Mineirinho, que terá uma potência de 1,1 MWp, está em processo de elaboração de edital. Os empreendimentos fazem parte do Projeto Minas Solar 2014 da Cemig. A iniciativa de se instalar uma central geradora de energia a partir dos raios do sol no Mineirão e no Mineirinho foi inspirada nos estádios de Freiburg, considerada a capital solar da Alemanha, de Berna, na Suíça, e nos estádios solares construídos para a Eurocopa 2008.O custo de investimento total do projeto chega a €12,5 milhões, financiados por um empréstimo do KfW, Banco de Desenvolvimento da Alemanha, no montante de €10 milhões (os €2,5 milhões restantes vieram da Cemig). Além disso, a Sociedade Alemã de Cooperação Internacional (GIZ, na sigla em alemão), em nome da BMZ, auxiliou a Cemig na comercialização da energia solar e na formação de pessoal técnico.Hans-Jürgen Beerfeltz enfatizou: "O Brasil é fã de futebol e irá sediar a Copa do Mundo de 2014. Apoiamos o País a realizar uma Copa do Mundo ecológica e sustentável. O Brasil pode usar um recurso que tem em abundância: a luz do sol, que é, em média, duas vezes maior que na Alemanha, mas cujo potencial até agora é raramente usado para geração de energia. Queremos apoiar os nossos parceiros brasileiros a mudar isso. Os painéis solares no estádio da Copa do Mundo são, portanto, um marco que irá incentivar muitas pessoas e assim dar mais impulso ao desenvolvimento da energia solar no Brasil".

Só uma questão se mantivesse mos nossas residências com a energia de painéis solares, teríamos de receber das concessionárias de energia o valor da energia que fosse fornecida a rede?

Algo a se pensar se na legislação atual é tratado ou não... mas esse será outro tema... até mais...


 Fonte: G1 e brasilalemanhanews., blogger Eletrônica, Automação e Controle.


sexta-feira, 8 de novembro de 2013

Agradecimento a equipe da Brazil Automation 2013

Gostaria de parabenizar e agradecer a oportunidade de palestrar no 17º CONGRESSO INTERNACIONAL E EXPOSIÇÃO DE AUTOMAÇÃO,  SISTEMAS E INSTRUMENTAÇÃO,
Parabenizo a todos da ISA Distrito 4 e a Clarion pelo excelente trabalho e é claro aos colegas pelo empenho e trabalho contínuo em prol da tecnologia e difusão do conhecimento...

 



Crea-Minas rebate afirmação de ministro de que a engenharia é de baixa qualidade

 

o presidente do Crea-Minas, o engenheiro civil Jobson Andrade, rebate afirmação de que a culpa pelo atraso de obras em aeroportos brasileiros é dos engenheiros feita pelo ministro-chefe da Secretaria de Aviação Civil da Presidência da República, Wellington Moreira Franco.  Jobson Andrade afirma que o problema está, justamente, na deficiência das instituições públicas.

Leia mais no artigo abaixo assinado pelo presidente do Crea-Minas.




Baixas paixões e os entraves à engenharia nacional

Jobson Andrade, engenheiro civil e presidente do Crea-Minas

Em uma infeliz declaração à imprensa no último dia 02 de novembro, o ministro-chefe da Secretaria de Aviação Civil da Presidência da República, Wellington Moreira Franco, afirmou que a culpa pelo atraso de obras em aeroportos brasileiros nas capitais que receberão a Copa do Mundo é dos engenheiros brasileiros, que “são ruins e elaboram projetos mal feitos”. Ressaltou ainda que “há uma carência de profissionais experientes e qualificados nessa área”.

Diante dessas declarações equivocadas, o Conselho Regional de Engenharia e Agronomia de Minas Gerais (Crea-Minas), instituição da engenharia que aglutina dezenas de outras entidades de classe e associações da área, vem a público repudiar veementemente tais afirmações. O motivo de atrasos em obras públicas não é culpa dos engenheiros, muito pelo contrário. Nossa autoridade técnica nos coloca em evidência inclusive em grandes obras no exterior. O problema está na deficiência das instituições públicas. Com os seus vícios e incompetências, não conseguem planejar, contratar e executar qualquer empreendimento no prazo devido, com as especificações necessárias. Antes de afirmar que a nossa engenharia é ruim, é preciso rever como o país se posiciona em relação a ela.

No Brasil nunca houve a preocupação com o planejamento. Nos anos de 1980 e 1990, décadas de redemocratização e momento para efetivar mudanças, não se projetou o país para o futuro, com planejamentos plurianuais, diretrizes e liderança. Esse despreparo ocasionou diversos problemas como a recessão, a inflação, o sucateamento da engenharia brasileira e, consequentemente, no sucateamento do Brasil, que perdura até hoje. Até 2010, tínhamos uma economia pujante e programas que apontavam para um resgate do desenvolvimento econômico e social brasileiro. Porém, repentinamente, isso parou, o país está estagnado. E eu pergunto ao ministro: como será o transporte aeroviário em dez anos? Quais são os planos? Quais são as metas? O que está sendo pensado para o setor?

Um dos gargalos que contribuem para essa leniência na realização de obras é ausência dos engenheiros nas funções correlatas no Estado. O papel de contratar serviços de engenharia cabe, na maioria das vezes, a políticos e profissionais que não são da área e não detém conhecimento técnico para isso. Os cargos públicos técnicos não são ocupados por pessoas capacitadas para determinadas atividades da engenharia. Tal situação reflete nas contratações inadequadas de obras, que atreladas à lei de licitação de nº 8.666 e toda a burocracia que envolve o processo, aceita projetos básicos sem as devidas especificações.

Soma-se a isso o fato de realizarem as compras apenas pelo menor preço oferecido, sem garantir qualidade. Essa lógica tem que ser revertida, pois da forma que se constituiu não se aplica à nossa realidade. Não é o engenheiro que não sabe fazer, mas a administração que não sabe comprar. A legislação também deve ser melhorada e exigir qualidade nos projetos.

Hoje, a engenharia não é valorizada no setor público. Faço um desafio ao próprio ministro que me apresente na estrutura pública do Brasil, de Norte a Sul, o salário de um engenheiro de execução, de órgão como os do DNIT, DER, ou que me mostre algum edital de concurso público em que o salário dele seja maior do que um profissional que atua em um órgão fiscalizador. Isso não existe. Não há investimentos em engenharia pública.

Se hoje não temos universidades que formam adequadamente, se os profissionais migram para outras áreas e não exercem a engenharia, análise feita pelo ministro, é porque a política brasileira contribuiu para a ocorrência desta condição. A responsabilidade disso é das autoridades instituídas que não apóiam verdadeiramente o ensino nas universidades, que não promovem a integração delas com o Estado, que não possuem uma política de fomento da inovação e do conhecimento junto às empresas. Isso tudo é reflexo da política de educação instaurada. O país só se mostra soberano quando detém a tecnologia e o conhecimento.

Afirmar que a culpa é dos engenheiros foi um discurso infeliz e despreparado, que representa bem as décadas em que o Brasil foi administrado somente por economistas e sociólogos, tirando a engenharia da gestão pública. Países que se desenvolveram nessa mesma época foram os que valorizaram a categoria. Na China, de seus 15 ministros, 13 são engenheiros.

Lutamos para sair do regime de exceção para alcançar a tão sonhada democracia. Contudo, o que se vê hoje é a ditadura da democracia. O Estado apenas cria normas que se sobrepõem umas às outras, algo que resulta em consequentes entraves para o desenvolvimento do país como um todo. Gostaria que o ministro enumerasse quais são as normas exigidas, todas elas, para se viabilizar uma obra em um aeroporto.

O país vive hoje um problema de falta de exemplos. As instituições são fracas porque são usadas para fins corporativistas, individualistas, não têm compromisso com o coletivo. A política, como bem ressaltou o papa Francisco, é um “instrumento de caridade”, mas virou profissão de políticos que passam a vida toda exercendo cargos eletivos e não acrescentam em nada à discussão política no Brasil.

Existe uma sedução irresistível da política brasileira por empresas de capital internacional. O Brasil é um país de indústria internacionalizada, a nossa tecnologia está na mão de estrangeiros. Hoje, as empresas de engenharia nacional enfrentam todo tipo de dificuldade. Ao invés de apoiar a inovação, os governos criam entraves, juros excessivos e os financiamentos são só para os que têm um alto poder aquisitivo.  Um caso emblemático é do engenheiro brasileiro João Augusto Conrado do Amaral Gurgel, que fez o primeiro carro brasileiro, o Gurgel, e não recebeu nenhum investimento do governo.

Outro mal que atormenta as empresas e os engenheiros é que eles não se sentem seguros em trabalhar nas obras governamentais por se tornarem reféns de um processo que acaba por gerar relações duvidosas entre o público e o privado, debitadas na conta da engenharia. O Estado tem que garantir a segurança jurídica e esse caminho só é possível no cumprimento inexorável da Lei. Todavia, isso não acontece no Brasil. O que vemos é a administração pública criando instrumentos fiscalizadores que originam dificuldades legais e intransponíveis.

Com esse amontoado de regras para coibir, fiscalizar e dificultar, o governo parte do pressuposto de que o brasileiro é desonesto. Isso gera burocracias, sobreposição de instituições fiscalizadoras, acusações de toda ordem, o que resulta na paralisação de obras. E não adianta a empresa recorrer à justiça, porque ela não tem segurança jurídica.

Vivemos hoje sob a égide da improvisação, não há planejamento e sim a institucionalização do provisório. As obras realizadas para atender a Copa do Mundo de Futebol devem ser vistas sob a ótica dos cidadãos e como elas retornarão em benefícios para eles. Estamos perdendo a oportunidade de realizar grandes obras, pensadas para o futuro daqui a 30 anos. Mas o que se vê são paliativos que não contemplam à altura da necessidade e do merecimento da população.

Para criarmos uma situação propícia para a o exercício de uma engenharia de qualidade é preciso simplificar a legislação, garantir segurança jurídica aos contratos e valorizar as carreiras de engenharia no setor público com salários e educação continuada para que se tenha profissionais capacitados para gerir contratos. É importante ainda mudar a legislação passando a exigir projetos executivos nas compras e não só o básico como é feito hoje; apoiar as universidades públicas e privadas na geração de inovação e empreendedorismo; facilitar o crédito para gerar produção e melhores serviços. E, principalmente, promover o crédito a boas ideias que se transformem em tecnologias e saber para o Brasil. Outro ponto é exigir o interstício nos mandatos políticos para acabar com as carreiras dessa “profissão” no Brasil. É preciso investir novamente, como fizeram os nossos predecessores Getúlio Vargas e Juscelino Kubitschek, em relação à indústria nacional.

Com a implementação dessas ações, vamos ter milhares de empresas fortes, sejam elas pequenas, médias ou grandes. E inclusive, já possuímos várias. Ainda diante da incoerente afirmativa do ministro em dizer que os nossos engenheiros são ruins, eu queria perguntar a ele como a Odebrecht, que está presente em diversos países, a Embraer, a Vale, a própria Petrobrás, são referências mundiais em engenharia. Porque a Odebrecht brasileira constrói aeroportos nos EUA e não no Brasil?

Enfim, o que percebemos é a facilidade em defender-se do indefensável, usando bravatas e afirmações desrespeitosas contra toda uma categoria, já bastante explorada por políticas públicas incompetentes, descomprometidas com o social e com o país, servindo a maior parte a interesses pessoais e a baixas paixões.

quinta-feira, 7 de novembro de 2013

Toyota lançará carro a hidrogênio... Incrivel...

A montadora japonesa Toyota pretende lançar um veículo a hidrogênio em 2015, acredite...
O modelo FCV (Fuel-Cell Vehicle - veículo a célula de combustível) será apresentado durante o Salão do Automóvel de Tóquio, no final deste mês.
O FCV tem uma autonomia de 500 km e tempo de reabastecimento de três minutos, mais ou menos o mesmo tempo que se leva para encher o tanque de um veículo a gasolina.
Segundo a empresa, o design exterior do veículo evoca "a transformação do ar em água" - a célula a combustível usa o gás hidrogênio para produzir eletricidade, liberando apenas água no escapamento.
Embora seja uma promessa antiga, os veículos a hidrogênio não têm passado da etapa de conceitos por dois motivos principais: a elevada temperatura das células de combustível e a falta de infraestrutura para abastecimento do gás.
A empresa afirma esperar que "centenas de postos de combustível" estejam disponíveis no Japão, Europa e Estados Unidos nos próximos dois anos.
Tanques a hidrogênio
Toyota lançará carro a hidrogênio e veículo para guiar de pé
Usando materiais mais resistente às altas pressões, o número de tanque de  hidrogênio foi reduzido de quatro para dois. À esquerda, a pilha de células a combustível do FCV. [Imagem: Toyota]
O FCV conta com dois tanques de hidrogênio de 70 MPa de pressão, instalados na parte inferior.
As células a combustível têm uma densidade de potência de saída de 3 kW/L, mais que o dobro da usada no carro-conceito a hidrogênio anterior da Toyota, o FCHV. A saída é de pelo menos 100 kW.
Segundo a montadora, a pilha de células a combustível usada opera em tensão maior, o que tornou possível reduzir o tamanho do motor e o número de células de combustível individuais, gerando um sistema menor que oferece um melhor desempenho.
Como o veículo é duplamente híbrido, contando ainda com baterias, ele tem capacidade para quatro passageiros, apesar dos seus 4,87 metros de comprimento.
Com tanques de hidrogênio cheios e baterias carregadas, segundo a Toyota, o veículo pode fornecer "eletricidade suficiente para satisfazer as necessidades diárias de uma casa japonesa média (10 kWh) por mais de uma semana", sem precisar quais são as necessidades diárias de uma casa japonesa média....

Fonte: www.inovaçãotecnologica.com.br

domingo, 3 de novembro de 2013

Essa semana teremos a Feira internacional de Automação -ISA SHOW -Sabia????

Pessoal,  essa semana ocorre feira internacional de automação, nos dias 05,06 e 07 , será em São Paulo no Transamenrica Expocenter , o "Eletrônica, Automação e Controle" estará lá e trará as novidades da feira, além é claro do trabalho que será apresentado e postado aqui dia 06 as 17h sobre Energia eólica.... Fique por dentro aqui... www.brazilautomation.com.br

quinta-feira, 31 de outubro de 2013

Marco da Mineração... os Engenheiros devem estar por dentro...

Até que ponto a Mineração pode ser algo benéfico para o setor de Engenharia? E os impactos ambientais...



Os Engenheiros Ambientais, Elétricos,  de Automação, entre outros tem papel essencial neste segmento e para tal devem opnar sobre os prós e contras de tais ações, a politica precisa de nosso suporte para tomar essa decisão que será uma premissa para o futuro do país.

Existem outras formas de lucro sobre o setor.. .veja como ...

https://www.youtube.com/watch?v=BQe1n6tQ4lM

https://www.youtube.com/watch?v=TE64aWjZ2k0

https://www.youtube.com/watch?v=bkitDUVUXXs

https://www.youtube.com/watch?v=P8U1FZF_Cvw

https://www.youtube.com/watch?v=lV9zsdGwL4c

quarta-feira, 30 de outubro de 2013

Telas e display flexíveis e esticáveis, será possível????

Caminho está brilhando para telas flexíveis e esticáveis


OLEDs de esticar - LEDs orgânicos flexíveis
O OLED fabricado pela equipe pode ser esticado 30% além do seu tamanho original e dobrado em 180 graus sem parar de brilhar. [Imagem: UCLA]
 
 
LEDs que esticam
Ttelas que podem  dobrar até se enrolar, vestir computadores  e equipamentos eletrônicos flexíveis, é possível?
Essa área emergente está prosseguindo firme, mas não tem conseguido demonstrar muito do seu potencial porque os aparelhos eletrônicos são formados por inúmeros componentes, e todos devem ser "flexibilizados" para que as promessas virem realidade.
Então talvez agora dê para colocar na agenda o lançamento das primeiras telas flexíveis.
Duas equipes, trabalhando de forma independente, acabam de relatar a fabricação de LEDs que são não apenas flexíveis, mas que podem ser esticados como elástico, sem parar de brilhar.
OLEDs flexíveis
Os LEDs são as unidades básicas da maioria das telas de TVs, computador, celulares e tablets fabricados hoje.
A equipe da Dra. Zhenan Bao, da Universidade de Stanford, continua centrando a atenção no desenvolvimento das peles artificiais - mais especificamente, das "peles eletrônicas" - mas isso acabou levando o grupo a um feito muito mais amplo.
Bao conseguiu incorporar LEDs feitos de polímeros - os chamados LEDs orgânicos, ou OLEDs - em sua matriz flexível.
Segundo a pesquisadora, a criação de OLEDs com alta flexibilidade por duas equipes diferentes significa que os primeiros equipamentos comerciais podem estar no horizonte.
"A eletrônica flexível e a optoeletrônica têm aplicações potenciais na geração de energia, na biomedicina, na robótica e nas telas," afirma a equipe.
OLEDs de esticar - LEDs orgânicos flexíveis
Os OLEDs emitem luz graças a materiais eletroluminescentes feitos de uma espécie de plástico, o que explica sua flexibilidade. O grande desafio é tornar flexíveis os eletrodos, que levam energia até eles. [Imagem: UCLA]

OLEDs (Leds orgânicos) que esticam
Jiajie Liang e seus colegas da Universidade da Califórnia em Los Angeles também trabalharam com OLEDs.
Seu protótipo pode ser repetidamente esticado, dobrado e torcido, a temperatura ambiente, sempre voltando ao formato original - e sem parar de emitir luz em todo o processo.
O OLED fabricado pela equipe pode ser esticado 30% além do seu tamanho original e dobrado em 180 graus, tendo se mantido totalmente funcional por 1.000 ciclos de esticamento e relaxamento, sempre brilhando.
O protótipo suportou um esticamento de até duas vezes seu tamanho original, mas apresentou perda de eficiência.
Os OLEDs emitem luz graças a materiais eletroluminescentes feitos de uma espécie de plástico, o que explica sua flexibilidade. O grande desafio é tornar flexíveis os eletrodos, que levam energia até eles.
A solução encontrada foi usar malhas de nanofios de prata depositados sobre uma matriz de borracha, o que produziu eletrodos flexíveis e transparentes.
"Juntamente com o desenvolvimento dos transistores de película fina elásticos, acreditamos que as telas interativas de OLEDs totalmente esticáveis, tão finas quanto um papel de parede, serão feitas em um futuro próximo," estima o professor Qibing Pei, coordenador da equipe.

Bibliografia:
Stretchable LEDs: Light-emitting electronic skin
Michael Vosgueritchian, Jeffrey B.-H. Tok, Zhenan Bao
Nature Photonics
Vol.: 7, 769-771
DOI: 10.1038/nphoton.2013.251

Elastomeric polymer light-emitting devices and displays
Jiajie Liang, Lu Li, Xiaofan Niu, Zhibin Yu, Qibing Pei
Nature Photonics
Vol.: 7, 817-824
DOI: 10.1038/nphoton.2013.242

terça-feira, 29 de outubro de 2013

Geradores eólicos para aplicações doméstica... estudo aplicado...

Para quem tem interesse sobre energias renováveis segue aqui o estudo que será exibido na Feira internacional Brazil Automation  no Transamerica Expocenter norte....  segue link do trabalho na integra....  http://www.inatel.br/pos/index.php/downloads/doc_download/38-artigos-publicados-pos-automacao-industrial


quinta-feira, 24 de outubro de 2013

Par quem gosta de microcontroladores, vai a dica "Master Brasil 2013"

Pessoal, quem tem interesse por microcontroladores , vai uma dica em novembro acontece a Master Brasil, evento patrocinado pela Microchip, com vários treinamentos e ferramentas.. quem se interessar segue o link .... http://www.seminariosartimar.com.br/mastersbrasil2013/default.asp