Monthly Archives: May 2007

De weg vinden in Office development? Gebruik de interactieve Developer Map!

Het Office platform is zo onderhand behoorlijk groot aan het worden en je weg vinden wordt dan ook steeds lastiger. Met de Microsoft Office Interactive Developer Map kun je de weg weer vinden. De Developer Map is een WPF applicatie met een overzicht van alle technologieen de van toepassing zijn op het Office platform. Door te klikken op een bepaalde technologie krijg je allerlei detailinformatie en documentatie, of wordt je naar het betreffende MSDN Developer Center gestuurd. De definitie van de “kaart” werkt zichzelf bij van de servers van Microsoft als er zaken veranderen dankzij het gebruik van WPF/XAML. Cool!



 

Dit jaar geen PDC, was te verwachten

Dat er in 2007 geen PDC zal zijn verbaast me weinig. De meeste grote aankondigingen zijn al gedaan op de MIX. De zaken die daaruit komen, zijn eind dit jaar begin volgend jaar beschikbaar. De PDC zou dus moeten gaan over wat er daarna komt en dat is nog te verweg om echt wat zinnigs over te zeggen. Volgend jaar beter. Het scheelt in elk geval weer een tripje naar de VS.

Logging in ASP.NET? Use the Health Monitoring API

I’ve been working with ASP.NET 2.0 for a long time now and I thought I’d seen most of it. Today I found something that must have flown under my radar all this time: the Health Monitoring API. Functionally this API is similar to log4net and the Enterprise Library logging Application Block. Although both of these work well I prefer functionality that comes “out-of-the-box”, because you don’t have to do anything to get it, it works, and your pretty sure it’ll be kept up to date by the folks in the product team(s). So even if you’re using another logging mechanism, be sure to check out the Health Monitoring API. How To: Use Health Monitoring in ASP.NET 2.0 from the  Pattern & Practices group is a good starting piont.

Logging in ASP.NET? Gebruik de Health Monitoring API

Ik werk al zo lang met ASP.NET 2.0 dat ik dacht alles wel een keer gezien te hebben, maar nu blijkt er toch iets aan mijn aandacht ontsnapt te zijn: de Health Monitoring API. Deze API is qua functionaliteit vergelijkbaar met log4net en het logging Application Block van Enterprise Library. Hoewel dat beide goede logging biedt ben ik toch altijd wel een voorstander van functionaliteit die “out-of-the-box” beschikbaar is, omdat je daarmee zekerder bent van de levensduur en bugfixes. Ook als je een ander loggingmechanisme gebruikt is het dus zeker de moeite waard om even naar de Health Monitoring API te kijken. Een goed startpunt is How To: Use Health Monitoring in ASP.NET 2.0 van de Pattern & Practices groep.

VSLive Orlando demo’s


Thanks to all that came to my sessions at VSLive in Orlando on Tuesday, and thanks for the great feedback. Below are the demo’s for the two sessions. Updated slides decks will be made available on the attendee website.



Some of you asked which tool I used to demo the perf difference between sync and async (demo 1). Although you could use perf tools that come with VS2005 I used Application Center Test (ACT) that comes with Visual Studio 2003, because it is very easy to setup and shows nice graphics (which was most important for this demo). You can also use the free Web Application Stress Tool. The ACT script I used was (substitute “slow.aspx” with “slowasync.aspx” for the async test), with 50 browser connections:


Randomize()
If Rnd(10) < 5 Then
    Test.SendRequest(“
http://testserver/Demo01/Fast.aspx“)
End If
Test.SendRequest(“
http://testserver/Demo01/Slow.aspx“)
Test.SendRequest(“
http://testserver/Demo01/Fast.aspx“)


Note: I’ve run this test in several setups with different hardware. In my Orlando session I showed numbers from ACT on the host to the web in a VPC. In my San Francisco session ACT was on a Dell D600 with the web running in a VPC on my Dell D800, which is a better way to test (in the Orlando setup ACT is drawing perf from the same CPU). The async perf is much better (even in percentages) with the SF setup. Be aware that there are a lot of variables: CPU capacity, memory, and last but not least… network interface. In another test setup I hardly saw any difference between sync and async. Why? Because the network was the bottleneck :(.