Configurare MX records pentru server de email prin Google Apps

Daca doriti sa folositi Google Apps pentru servicii de mailing (trimiterea sau primirea de mesaje e-mail), in locul celui oferit de catre Claus Web, va trebui sa faceti cateva setari in contul dumneavoastra de gazduire pentru domeniul ales. Va trebui sa faceti o configurare a MX-urilor domeniului dumneavoastra catre serverele de mail apartinand Google.

Primul pas este sa va logati in contul dumneavoastra de cPanel, sa navigati la meniul MAIL si sa alegeti optiunea MX ENTRY.

mx1

 
 
 
 
 
 
 
 
 

Selectati domeniul pentru ca doriti sa faceti setarile.

mx2

 
 
 
 

Alegeti AUTOMATICALLY DETECT CONFIGURATION de la optiunea EMAIL ROUTING.

mx3

 
 
 
 
 
 
 
 
 

Stergeti intratile actuale MX, apasand pe delete.

mx4

 
 
 
 
 

Adaugati un MX record pentru serverul de mail GOOGLE, ca si in imaginea de mai jos, introducant PRIORITY “1” si ASPMX.L.GOOGLE.COM la DESTINATION.

mx5

 
 
 
 
 
 
 
 

Continuati sa repetati acest process pentru urmatoarele servere de mail:

Priority

Destination

1 ASPMX.L.GOOGLE.COM
5 ALT1.ASPMX.L.GOOGLE.COM
5 ALT2.ASPMX.L.GOOGLE.COM
10 ASPMX2.GOOGLEMAIL.COM
10 ASPMX3.GOOGLEMAIL.COM

La sfarsit, va trebui sa aveti urmatoare intrari :

mx6

 
 
 
 
 
 
 
 
 

Dupa aceste modificari, daca doriti sa configurati intr-un client de mail (ex: Microsoft Outlook, Thunderbird, etc) o adresa apartinand contului pentru care ati facut modificarile in MX records, trebuie sa tineti cont ca va trebui sa faceti cateva setari speciale:

La Incoming mail server va trebui sa fie adaugat “pop.gmail.com” , iar la Outoing mail server “smtp.gmail.com”. Porturile de intrare vor fi Incoming 995 si Outgoing 465 cu SSL activ. Aceste setari se realizeaza din meniul Account Settings al programului dumneavoastra de gestionare e-mail.

 


Scaneaza-ti siteul GRATUIT pentru malware

SCANEAZA-TI SITE-ul GRATUIT CU SITECHECK.SUCURI.NET

Scanner-ul online al celor de la Sucuri.net verifica orice website pentru malware, spam, blacklisting sau alte probleme de securitate precum redirecturi gresite din .htaccess, cod sau scripturi “infectat”, etc.

Fiind complet gratuit, este un instrument la indemana oricarui proprietar de siteuri care a fost victima unui atac informatic sau care vrea doar sa verifice securitatea acestuia.

http://sitecheck.sucuri.net/scanner/

La accesarea URL-ului de mai sus, se va deschide o pagina cu un camp de cautare unde trebuie doar sa introduceti numele domeniului dumneavoastra.

De exemplu, daca se introduce weburl.ro, la cateva secunde de la apasarea butonului “Scan website”, se vor afisa toate informatiile referitoare la acest site.

SiteCheck de la Sucuri.net ofera informatii despre diferite tipuri de malware, injectii php, erori de programare, erori de conectare la baza de date, siteuri defaced sau disabled, anomalitati in cod, scripturi “broken”, iFrames infectate, listare in blacklisturi, incercari de scamming sau phishing, redirecturi fortate catre alte siteuri obscure, flood dinspre domeniul-gazda,… precum si multe altele.

Odata indentificata problema sau modalitatea de infectare a siteului dumneavoastra, este mult mai usor pentru programatorul dumneavoastra sa aduca siteul la normalitate sau sa il securizeze.

Specialistii Claus Web va stau intotdeauna la dispozitie cu sfaturi sau asistenta tehnica.


Cum sa blochezi robotii din internet

Cum sa blochezi “robotii” din internet

Daca esti deranjat (floodat) de robotii din internet sau doar vrei sa blochezi cativa robotii nedoriti, acest lucru se poate realiza destul de usor, fara a fi un utilizator experimentat.

Trebuie doar sa inserezi codul de mai jos in fisierul tau .htaccess, care este localizat in directorul public_html.  Acest fisier contine instructiuni care comunica serverului ce sa faca in anumite situatii si influenteaza direct modul cum este afisat siteul tau.

Sunt mai multe modalitati prin care aceste fisier poate sa fie modificat, dar cel mai simplu pentru un client Claus Web este sa o faca din contul de cPanel, folosind optiunea File Manager.

Inainte de a face orice modificare, sugeram sa va faceti un backup la acest fisier pentru a-l putea cu usurinta pune inapoi la nevoie.

Pentru a edita fisierul .htaccess, logheaza-te in contul tau de cPanel folosind datele primite pe mail si accesand din browser http://domeniultau.ro/cpanel (desigur domeniul tau este numele siteului tau si poate fi .ro, .com, .eu sau orice alta extensie) si :

  1. Navigheaza la meniul File Manager, in sectiunea Files
  2. Selecteaza „Document Root for:” si selecteaza public_html sau numele site-ului tau Asigura-te ca „Show Hidden Files (dotfiles)” este bifat.
  3. Apasa butonul „Go„.
  4. File manager va deschide un nou tab cu trunchiul de foldere in stanga si lista fisierelor in dreapta.
  5. Cauta fisierul .htaccess in lista de fisiere din dreapta.
  6. Click dreapta pe fisier odata ce l-ai gasit si selecteaza “Code Edit”.
  7. Va aparea o fereastra si veti da click pe Edit.
  8. Aici veti introduce textul de mai jos integral.
  9. La sfarsit, dup ace v-ati asigurat ca nu ati copiat si alte caractere, ci doar cele mai jos, puteti apasa Save Changes din coltul din dreapta sus.
  10. Gata!

Noile setari au fost salvate. Verifica acum siteul tau daca functioneaza corect. Daca totul este afisat corect, inseamna ca modificarile au fost facute cu success si totul este in regula.

Daca cumva observati vreo eroarea la site-ul dumneavoastra, pur si simplu puneti inapoi in public_html fisierul .htaccess de rezerva pe care ati salvat-o mai sus.

 

##Block bots

SetEnvIfNoCase user-Agent ^FrontPage [NC,OR]

SetEnvIfNoCase user-Agent ^Java.* [NC,OR]

SetEnvIfNoCase user-Agent ^Microsoft.URL [NC,OR]

SetEnvIfNoCase user-Agent ^MSFrontPage [NC,OR]

SetEnvIfNoCase user-Agent ^Offline.Explorer [NC,OR]

SetEnvIfNoCase user-Agent ^[Ww]eb[Bb]andit [NC,OR]

SetEnvIfNoCase user-Agent ^Zeus [NC]

 

<limit GET POST>

 

#DENYING YOUR CONNECTIONS THNX.

Order Allow,Deny

Allow from all

Deny from env=bad_bot

 

</limit>

 

##end code

 

##begin code

##start blocking potentially unwanted bots.

RewriteEngine On

RewriteCond %{HTTP_USER_AGENT} ^BlackWidow [OR]

RewriteCond %{HTTP_USER_AGENT} ^Bot\ mailto:craftbot@yahoo.com [OR]

RewriteCond %{HTTP_USER_AGENT} ^ChinaClaw [OR]

RewriteCond %{HTTP_USER_AGENT} ^Custo [OR]

RewriteCond %{HTTP_USER_AGENT} ^DISCo [OR]

RewriteCond %{HTTP_USER_AGENT} ^Download\ Demon [OR]

RewriteCond %{HTTP_USER_AGENT} ^eCatch [OR]

RewriteCond %{HTTP_USER_AGENT} ^EirGrabber [OR]

RewriteCond %{HTTP_USER_AGENT} ^EmailSiphon [OR]

RewriteCond %{HTTP_USER_AGENT} ^EmailWolf [OR]

RewriteCond %{HTTP_USER_AGENT} ^Express\ WebPictures [OR]

RewriteCond %{HTTP_USER_AGENT} ^ExtractorPro [OR]

RewriteCond %{HTTP_USER_AGENT} ^EyeNetIE [OR]

RewriteCond %{HTTP_USER_AGENT} ^FlashGet [OR]

RewriteCond %{HTTP_USER_AGENT} ^GetRight [OR]

RewriteCond %{HTTP_USER_AGENT} ^GetWeb! [OR]

RewriteCond %{HTTP_USER_AGENT} ^Go!Zilla [OR]

RewriteCond %{HTTP_USER_AGENT} ^Go-Ahead-Got-It [OR]

RewriteCond %{HTTP_USER_AGENT} ^GrabNet [OR]

RewriteCond %{HTTP_USER_AGENT} ^Grafula [OR]

RewriteCond %{HTTP_USER_AGENT} ^HMView [OR]

RewriteCond %{HTTP_USER_AGENT} HTTrack [NC,OR]

RewriteCond %{HTTP_USER_AGENT} ^Image\ Stripper [OR]

RewriteCond %{HTTP_USER_AGENT} ^Image\ Sucker [OR]

RewriteCond %{HTTP_USER_AGENT} Indy\ Library [NC,OR]

RewriteCond %{HTTP_USER_AGENT} ^InterGET [OR]

RewriteCond %{HTTP_USER_AGENT} ^Internet\ Ninja [OR]

RewriteCond %{HTTP_USER_AGENT} ^JetCar [OR]

RewriteCond %{HTTP_USER_AGENT} ^JOC\ Web\ Spider [OR]

RewriteCond %{HTTP_USER_AGENT} ^larbin [OR]

RewriteCond %{HTTP_USER_AGENT} ^LeechFTP [OR]

RewriteCond %{HTTP_USER_AGENT} ^Mass\ Downloader [OR]

RewriteCond %{HTTP_USER_AGENT} ^MIDown\ tool [OR]

RewriteCond %{HTTP_USER_AGENT} ^Mister\ PiX [OR]

RewriteCond %{HTTP_USER_AGENT} ^Navroad [OR]

RewriteCond %{HTTP_USER_AGENT} ^NearSite [OR]

RewriteCond %{HTTP_USER_AGENT} ^NetAnts [OR]

RewriteCond %{HTTP_USER_AGENT} ^NetSpider [OR]

RewriteCond %{HTTP_USER_AGENT} ^Net\ Vampire [OR]

RewriteCond %{HTTP_USER_AGENT} ^NetZIP [OR]

RewriteCond %{HTTP_USER_AGENT} ^Octopus [OR]

RewriteCond %{HTTP_USER_AGENT} ^Offline\ Explorer [OR]

RewriteCond %{HTTP_USER_AGENT} ^Offline\ Navigator [OR]

RewriteCond %{HTTP_USER_AGENT} ^PageGrabber [OR]

RewriteCond %{HTTP_USER_AGENT} ^Papa\ Foto [OR]

RewriteCond %{HTTP_USER_AGENT} ^pavuk [OR]

RewriteCond %{HTTP_USER_AGENT} ^pcBrowser [OR]

RewriteCond %{HTTP_USER_AGENT} ^RealDownload [OR]

RewriteCond %{HTTP_USER_AGENT} ^ReGet [OR]

RewriteCond %{HTTP_USER_AGENT} ^SiteSnagger [OR]

RewriteCond %{HTTP_USER_AGENT} ^SmartDownload [OR]

RewriteCond %{HTTP_USER_AGENT} ^SuperBot [OR]

RewriteCond %{HTTP_USER_AGENT} ^SuperHTTP [OR]

RewriteCond %{HTTP_USER_AGENT} ^Surfbot [OR]

RewriteCond %{HTTP_USER_AGENT} ^tAkeOut [OR]

RewriteCond %{HTTP_USER_AGENT} ^Teleport\ Pro [OR]

RewriteCond %{HTTP_USER_AGENT} ^VoidEYE [OR]

RewriteCond %{HTTP_USER_AGENT} ^Web\ Image\ Collector [OR]

RewriteCond %{HTTP_USER_AGENT} ^Web\ Sucker [OR]

RewriteCond %{HTTP_USER_AGENT} ^WebAuto [OR]

RewriteCond %{HTTP_USER_AGENT} ^WebCopier [OR]

RewriteCond %{HTTP_USER_AGENT} ^WebFetch [OR]

RewriteCond %{HTTP_USER_AGENT} ^WebGo\ IS [OR]

RewriteCond %{HTTP_USER_AGENT} ^WebLeacher [OR]

RewriteCond %{HTTP_USER_AGENT} ^WebReaper [OR]

RewriteCond %{HTTP_USER_AGENT} ^WebSauger [OR]

RewriteCond %{HTTP_USER_AGENT} ^Website\ eXtractor [OR]

RewriteCond %{HTTP_USER_AGENT} ^Website\ Quester [OR]

RewriteCond %{HTTP_USER_AGENT} ^WebStripper [OR]

RewriteCond %{HTTP_USER_AGENT} ^WebWhacker [OR]

RewriteCond %{HTTP_USER_AGENT} ^WebZIP [OR]

RewriteCond %{HTTP_USER_AGENT} ^Wget [OR]

RewriteCond %{HTTP_USER_AGENT} ^Widow [OR]

RewriteCond %{HTTP_USER_AGENT} ^WWWOFFLE [OR]

RewriteCond %{HTTP_USER_AGENT} ^Xaldon\ WebSpider [OR]

RewriteCond %{HTTP_USER_AGENT} ^Zeus

RewriteRule ^.* – [F,L]

##end code